648 resultados para Localizzazione, Guasti, Trazione Elettrica, Ferrovia
Resumo:
Le biomasse hanno sempre rappresentato per l’umanità una fonte estremamente versatile e rinnovabile di risorse e tutt’oggi il loro impiego risulta vantaggioso in particolare per produrre energia termica ed elettrica attraverso processi di combustione, sistemi che tuttavia emettono sostanze dannose verso la salute umana e l’ecosistema. Queste pressioni ambientali hanno indotto alcune amministrazioni regionali (fra cui la Lombardia) a bandire temporaneamente l’installazione di nuovi impianti a biomasse, per prevenire e contenere le emissioni in atmosfera a tutela della salute e dell’ambiente. Il presente studio intende approfondire l’effetto ambientale di tali sistemi di riscaldamento domestico attraverso la tecnologia di analisi LCA (Life Cycle Assessment). Lo scopo dell’elaborato di Tesi consiste nell’eseguire un’analisi dell’intero ciclo di vita di due processi di riscaldamento domestico che utilizzino biomassa legnosa: una stufa innovativa a legna e una stufa a pellet. L’analisi ha quindi posto a confronto i due scenari con mezzi di riscaldamento domestico alternativi quali il boiler a gas, il pannello solare termico integrato con caldaia a gas e la pompa di calore elettrica. È emerso che tra i due scenari a biomassa quello a legna risulti decisamente più impattante verso le categorie salute umana e qualità dell’ecosistema , mentre per il pellet si è riscontrato un impatto maggiore del precedente nella categoria consumo di risorse. Dall’analisi di contributo è emerso che l’impatto percentuale maggiore per entrambi gli scenari sia legato allo smaltimento delle ceneri, pertanto si è ipotizzata una soluzione alternativa in cui esse vengano smaltite nell’inceneritore, riducendo così gli impatti. I risultati del punteggio singolo mostrano come lo scenario di riscaldamento a legna produca un quantitativo di particolato superiore rispetto al processo di riscaldamento a pellet, chiaramente dovuto alle caratteristiche chimico-fisiche dei combustibili ed alla efficienza di combustione. Dal confronto con gli scenari di riscaldamento alternativi è emerso che il sistema più impattante per le categorie salute umana e qualità dell’ecosistema rimane quello a legna, seguito dal pellet. I processi alternativi presentano impatti maggiori alla voce consumo di risorse. Per avvalorare i risultati ottenuti per i due metodi a biomassa è stata eseguita un’analisi di incertezza attraverso il metodo Monte Carlo, ad un livello di confidenza del 95%. In conclusione si può affermare che i sistemi di riscaldamento domestico che impiegano processi di combustione della biomassa legnosa sono certamente assai vantaggiosi, poiché pareggiano il quantitativo di CO2 emessa con quella assorbita durante il ciclo di vita, ma al tempo stesso possono causare maggiori danni alla salute umana e all’ecosistema rispetto a quelli tradizionali.
Resumo:
Sperm cells need hexoses as a substrate for their function, for both the maintenance of membrane homeostasis and the movement of the tail. These cells have a peculiar metabolism that has not yet been fully understood, but it is clear that they obtain energy from hexoses through glycolisis and/or oxidative phosphorylation. Spermatozoa are in contact with different external environments, beginning from the testicular and epididymal fluid, passing to the seminal plasma and finally to the female genital tract fluids; in addition, with the spread of reproductive biotechnologies, sperm cells are diluted and stored in various media, containing different energetic substrates. To utilize these energetic sources, sperm cells, as other eukaryotic cells, have a well-constructed protein system, that is mainly represented by the GLUT family proteins. These transporters have a membrane-spanning α-helix structure and work as an enzymatic pump that permit a fast gradient dependent passage of sugar molecules through the lipidic bilayer of sperm membrane. Many GLUTs have been studied in man, bull and rat spermatozoa; the presence of some GLUTs has been also demonstrated in boar and dog spermatozoa. The aims of the present study were - to determine the presence of GLUTs 1, 2, 3, 4 and 5 in boar, horse, dog and donkey spermatozoa and to describe their localization; - to study eventual changes in GLUTs location after capacitation and acrosome reaction in boar, stallion and dog spermatozoa; - to determine possible changes in GLUTs localization after capacitation induced by insulin and IGF stimulation in boar spermatozoa; - to evaluate changes in GLUTs localization after flow-cytometric sex sorting in boar sperm cells. GLUTs 1, 2, 3 and 5 presence and localization have been demonstrated in boar, stallion, dog and donkey spermatozoa by western blotting and immunofluorescence analysis; a relocation in GLUTs after capacitation has been observed only in dog sperm cells, while no changes have been observed in the other species examined. As for boar, the stimulation of the capacitation with insulin and IGF didn’t cause any change in GLUTs localization, as well as for the flow cytometric sorting procedure. In conclusion, this study confirms the presence of GLUTs 1, 2 ,3 and 5 in boar, dog, stallion and donkey spermatozoa, while GLUT 4 seems to be absent, as a confirmation of other studies. Only in dog sperm cells capacitating conditions induce a change in GLUTs distribution, even if the physiological role of these changes should be deepened.
Resumo:
Al giorno d’oggi è sempre maggiore la richiesta di sistemi software affidabili, in grado cioè di adempiere alle proprie funzioni nel modo corretto anche qualora si dovessero verificare dei problemi interni o esterni al sistema. I sistemi informatici complessi sono sempre più chiamati a svolgere compiti altamente critici, che coinvolgono la sicurezza e l’incolumità delle persone. Si pensi per esempio ai sistemi di controllo di aerei, delle centrali nucleari, dei sistemi ferroviari o anche solo ai sistemi di transazioni monetarie. É importante per questi sistemi adottare tecniche in grado di mantenere il sistema in uno stato correttamente funzionante ed evitare che la fornitura del servizio possa essere interrotta dal verificarsi di errori. Tali tecniche possono essere implementate sia a livello hardware che a livello software. È tuttavia interessante notare la differenza che intercorre tra i due livelli: l’hardware può danneggiarsi e quindi la semplice ridondanza dei componenti è in grado di far fronte ad un eventuale malfunzionamento di uno di questi. Il software invece non può rompersi e quindi la semplice ridondanza dei moduli software non farebbe altro che replicare il problema. Il livello software necessita dunque di tecniche di tolleranza ai guasti basate su un qualche tipo di diversità nella realizzazione della ridondanza. Lo scopo di questa tesi è appunto quello di approfondire le varie tipologie di diversità utilizzabili a livello software e il funzionamento delle tecniche appartenenti a queste tipologie.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.
Resumo:
Nell’ambito di questa Tesi sono state affrontate le fasi di progettazione, sviluppo e caratterizzazione di materiali biomimetici innovativi per la realizzazione di membrane e/o costrutti 3D polimerici, come supporti che mimano la matrice extracellulare, finalizzati alla rigenerazione dei tessuti. Partendo dall’esperienza di ISTEC-CNR e da un’approfondita conoscenza chimica su polimeri naturali quali il collagene, è stata affrontata la progettazione di miscele polimeriche (blends) a base di collagene, addizionato con altri biopolimeri al fine di ottimizzarne i parametri meccanici e la stabilità chimica in condizioni fisiologiche. I polimeri naturali chitosano ed alginato, di natura polisaccaridica, già noti per la loro biocompatibilità e selezionati come additivi rinforzanti per il collagene, si sono dimostrati idonei ad interagire con le catene proteiche di quest’ultimo formando blends omogenei e stabili. Al fine di ottimizzare l’interazione chimica tra i polimeri selezionati, sono stati investigati diversi processi di blending alla base dei quali è stato applicato un processo complesso di co-fibrazione-precipitazione: sono state valutate diverse concentrazioni dei due polimeri coinvolti e ottimizzato il pH dell’ambiente di reazione. A seguito dei processi di blending, non sono state registrate alterazioni sostanziali nelle caratteristiche chimiche e nella morfologia fibrosa del collagene, a riprova del fatto che non hanno avuto luogo fenomeni di denaturazione della sua struttura nativa. D’altro canto entrambe le tipologie di compositi realizzati, possiedano proprietà chimico-fisiche peculiari, simili ma non identiche a quelle dei polimeri di partenza, risultanti di una reale interazione chimica tra le due molecole costituenti il blending. Per entrambi i compositi, è stato osservato un incremento della resistenza all’attacco dell’enzima collagenasi ed elevato grado di swelling, quest’ultimo lievemente inferiore per il dispositivo contenente chitosano. Questo aspetto, negativo in generale per quanto concerne la progettazione di impianti per la rigenerazione dei tessuti, può avere aspetti positivi poiché la minore permeabilità nei confronti dei fluidi corporei implica una maggiore resistenza verso enzimi responsabili della degradazione in vivo. Studi morfologici al SEM hanno consentito di visualizzare le porosità e le caratteristiche topografiche delle superfici evidenziando in molti casi morfologie ibride che confermano il buon livello d’interazione tra le fasi; una più bassa omogeneità morfologica si è osservata nel caso dei composti collagene-alginato e solo dopo reidratazione dello scaffold. Per quanto riguarda le proprietà meccaniche, valutate in termini di elasticità e resistenza a trazione, sono state rilevate variazioni molto basse e spesso dentro l’errore sperimentale per quanto riguarda il modulo di Young; discorso diverso per la resistenza a trazione, che è risultata inferiore per i campione di collagene-alginato. Entrambi i composti hanno comunque mostrato un comportamento elastico con un minore pre-tensionamento iniziale, che li rendono promettenti nelle applicazioni come impianti per la rigenerazione di miocardio e tendini. I processi di blending messi a punto nel corso della ricerca hanno permesso di ottenere gel omogenei e stabili per mezzo dei quali è stato possibile realizzare dispositivi con diverse morfologie per diversi ambiti applicativi: dispositivi 2D compatti dall’aspetto di membrane semitrasparenti idonei per rigenerazione del miocardio e ligamenti/tendini e 3D porosi, ottenuti attraverso processi di liofilizzazione, con l’aspetto di spugne, idonei alla riparazione/rigenerazione osteo-cartilaginea. I test di compatibilità cellulare con cardiomioblasti, hanno dimostrato come entrambi i materiali compositi realizzati risultino idonei a processi di semina di cellule differenziate ed in grado di promuovere processi di proliferazione cellulare, analogamente a quanto avviene per il collagene puro.
Resumo:
Sviluppo di un aerogeneratore ad asse verticale a pale, che fornisca una potenza di 100 KW utilizzando un generatore senza interposizione di moltiplicatore di giri per la produzione di energia elettrica. Si vuole progettare una macchina che possa essere montata sul luogo di esercizio, avendo quindi tutta la componentistica trasportabile e senza richiedere l’uso di trasporti eccezionali per evitare di avere costi aggiuntivi che con semplici accorgimenti possono essere evitati. La macchina dovrà per quanto possibile evitare la presenza di fondamenta che incrementino i costi di realizzazione e pregiudichino il sito urbanizzandolo fortemente.
Resumo:
Le celle a combustibile ad ossido solido (SOFC) sono reattori elettrochimici che convertono l’energia chimica di un gas combustibile direttamente in energia elettrica con un’alta efficienza e con basse emissioni. Il materiale più comunemente usato come anodo, il Ni/YSZ cermet, mostra però numerosi svantaggi nell’applicazione quali la suscettibilità all’avvelenamento da zolfo e la deposizione di coke per cracking degli idrocarburi usati come combustibile. E’ perciò necessario sviluppare materiali alternativi che sopperiscano a questi problemi. Il titanato di stronzio drogato con lantanio con stechiometria La0.4Sr0.4TiO3 (LST) è stato scelto come anodo alternativo per le ottime proprietà possedute. Lo scopo del lavoro di tesi è stato quindi lo studio dell’influenza della natura dei precursori, delle condizioni di sintesi e dell’aggiunta di agenti porizzanti necessari per l’ottenimento della fase perovskitica pura e con porosità controllata. In un primo tempo è stata verificata la possibilità di ottenere la fase La0.4Sr0.4TiO3 pura mediante sintesi allo stato solido, trattando termicamente miscele di precursori diversi. I risultati ottenuti hanno evidenziato che l’utilizzo di nitrati metallici porta a risultati migliori rispetto all’utilizzo di carbonati ed ossidi poiché permette la formazione della fase perovskite a temperature inferiori e con una purezza maggiore. Poiché l’analisi elementare sui materiali preparati in questa prima fase ha evidenziato un problema sulla stechiometria, il metodo di sintesi è stato ottimizzato solubilizzando preventivamente i precursori di lantanio e stronzio e determinandone il titolo mediante ICP. Inoltre, sono state effettuate delle sintesi utilizzando TiO2 a diversa area superficiale, per verificare l’effetto sulle fasi formate di una maggior reattività di questo componente. Per completezza la perovskite è stata sintetizzata anche tramite sintesi sol-gel, utilizzando il metodo Pechini, ottenendo a 700°C la fase pura. L’analisi morfologica ha evidenziato che le polveri con caratteristiche migliori per la formatura sono quelle ottenute tramite sintesi allo stato solido. Le pastiglie prodotte, miscelando tali polveri e agenti porizzanti opportuni, hanno evidenziato la stabilità della fase perovskitica voluta ma anche la necessità di ottimizzare l’aggiunta del porizzante per avere una porosità adeguata all’applicazione del sistema quale anodo SOFC.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
Lo scopo della presente tesi di dottorato è di illustrare il lavoro svolto nella progettazione del circuito a metallo liquido del Test Blanket System (TBS) Helium Cooled Lithium Lead (HCLL), uno dei sistemi fondamentali del reattore sperimentale ITER che dovrà dimostrare la fattibilità di produrre industrialmente energia elettrica da processi di fusione nucleare. Il blanket HCLL costituisce una delle sei configurazioni che verranno testate in ITER, sulla base degli esperimenti condotti nei 10 dieci anni di vita del reattore verrà selezionata la configurazione che determinerà la costituzione del primo reattore dimostrativo per la produzione di un surplus di energia elettrica venti volte superiore all’energia consumata, DEMO. Il circuito ausiliario del blanket HCLL è finalizzato, in DEMO all’estrazione del trizio generato mediante il TES; ed in ITER alla dimostrazione della fattibilità di estrarre il trizio generato e di poter gestire il ciclo del trizio. Lo sviluppo dei componenti, svolto in questa tesi, è accentrato su tale dispositivo, il TES. In tale ambito si inseriscono le attività che sono descritte nei capitoli della seguente tesi di dottorato: selezione e progettazione preliminare del sistema di estrazione del trizio dalla lega eutettica Pb15.7Li del circuito a metallo liquido del TBM HCLL; la progettazione, realizzazione e qualifica dei sensori a permeazione per la misura della concentrazione di trizio nella lega eutettica Pb15.7Li; la qualificazione sperimentale all’interno dell’impianto TRIEX (TRItium EXtarction) della tecnologia selezionata per l’estrazione del trizio dalla lega; la progettazione della diagnostica di misura e controllo del circuito ausiliario del TBM HCLL.
Resumo:
Organic electronics has grown enormously during the last decades driven by the encouraging results and the potentiality of these materials for allowing innovative applications, such as flexible-large-area displays, low-cost printable circuits, plastic solar cells and lab-on-a-chip devices. Moreover, their possible field of applications reaches from medicine, biotechnology, process control and environmental monitoring to defense and security requirements. However, a large number of questions regarding the mechanism of device operation remain unanswered. Along the most significant is the charge carrier transport in organic semiconductors, which is not yet well understood. Other example is the correlation between the morphology and the electrical response. Even if it is recognized that growth mode plays a crucial role into the performance of devices, it has not been exhaustively investigated. The main goal of this thesis was the finding of a correlation between growth modes, electrical properties and morphology in organic thin-film transistors (OTFTs). In order to study the thickness dependence of electrical performance in organic ultra-thin-film transistors, we have designed and developed a home-built experimental setup for performing real-time electrical monitoring and post-growth in situ electrical characterization techniques. We have grown pentacene TFTs under high vacuum conditions, varying systematically the deposition rate at a fixed room temperature. The drain source current IDS and the gate source current IGS were monitored in real-time; while a complete post-growth in situ electrical characterization was carried out. At the end, an ex situ morphological investigation was performed by using the atomic force microscope (AFM). In this work, we present the correlation for pentacene TFTs between growth conditions, Debye length and morphology (through the correlation length parameter). We have demonstrated that there is a layered charge carriers distribution, which is strongly dependent of the growth mode (i.e. rate deposition for a fixed temperature), leading to a variation of the conduction channel from 2 to 7 monolayers (MLs). We conciliate earlier reported results that were apparently contradictory. Our results made evident the necessity of reconsidering the concept of Debye length in a layered low-dimensional device. Additionally, we introduce by the first time a breakthrough technique. This technique makes evident the percolation of the first MLs on pentacene TFTs by monitoring the IGS in real-time, correlating morphological phenomena with the device electrical response. The present thesis is organized in the following five chapters. Chapter 1 makes an introduction to the organic electronics, illustrating the operation principle of TFTs. Chapter 2 presents the organic growth from theoretical and experimental points of view. The second part of this chapter presents the electrical characterization of OTFTs and the typical performance of pentacene devices is shown. In addition, we introduce a correcting technique for the reconstruction of measurements hampered by leakage current. In chapter 3, we describe in details the design and operation of our innovative home-built experimental setup for performing real-time and in situ electrical measurements. Some preliminary results and the breakthrough technique for correlating morphological and electrical changes are presented. Chapter 4 meets the most important results obtained in real-time and in situ conditions, which correlate growth conditions, electrical properties and morphology of pentacene TFTs. In chapter 5 we describe applicative experiments where the electrical performance of pentacene TFTs has been investigated in ambient conditions, in contact to water or aqueous solutions and, finally, in the detection of DNA concentration as label-free sensor, within the biosensing framework.
Resumo:
L’integrazione multisensoriale è la capacità del sistema nervoso di utilizzare molteplici sorgenti sensoriali. Una tra le più studiate forme di integrazione è quella tra informazioni visive ed acustiche. La capacità di localizzare uno stimolo acustico nello spazio è un processo meno accurato ed affidabile della localizzazione visiva, di conseguenza, un segnale visivo è spesso in grado di “catturare” (ventriloquismo) o di incrementare (enhancement multisensoriale) la performance di localizzazione acustica. Numerose evidenze sperimentali hanno contribuito ad individuare i processi neurali e le aree cerebrali alla base dei fenomeni integrativi; in particolare, un importante contributo viene dallo studio su soggetti con lesioni cerebrali. Tuttavia molti aspetti sui possibili meccanismi coinvolti restano ancora da chiarire. Obiettivo di questa tesi è stato lo sviluppo di un modello matematico di rete neurale per fare luce sui meccanismi alla base dell’interazione visuo-acustica e dei suoi fenomeni di plasticità. In particolare, il modello sviluppato è in grado di riprodurre condizioni che si verificano in-vivo, replicando i fenomeni di ventriloquismo ed enhancement in diversi stati fisiopatologici e interpretandoli in termini di risposte neurali e reciproche interazione tra i neuroni. Oltre ad essere utile a migliorare la comprensione dei meccanismi e dei circuiti neurali coinvolti nell’integrazione multisensoriale, il modello può anche essere utile per simulare scenari nuovi, con la possibilità di effettuare predizioni da testare in successivi esperimenti.