998 resultados para Interfaccia, Risultati elettorali, Accessibile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sedimentazione clastica di mare profondo è attualmente uno dei principali argomenti della ricerca sedimentologica sia in ambito puramente accademico che in ambito petrolifero-industriale. Gli studi recenti hanno enfatizzato l'influenza fondamentale della topografia preesistente del fondo marino sulla crescita e la morfologia sui fan di mare profondo; si è visto come, in molti systemi torbiditici, l’evoluzione dei processi deposizionali sia stata da moderatamente a fortemente controllata dall’ effetto di confinamento di scarpate tettoniche, ridge strutturali e seamounts. Scopo di questo lavoro è studiare l'effetto del confinamento alla scala di bacino sui principali sistemi torbiditici del margine orientale della Sardegna che rappresenta un margine passivo articolato di bacini di intraslope confinati verso mare da seamounts. Lo studio dei sistemi deposizionali è stato eseguito attraverso l'interpretazione di dati di batimetria multibeam ad alto dettaglio acquisiti dall’ISMAR di Bologna durante la crociera Tir99. L’ interpretazione multibeam è stata integrata con l’ analisi di profili sismici a riflessione per comprendere la morfologia l’organizzazione interna e l’evoluzione nel tempo dei principali elementi deposizionali dei sistemi torbiditici. Tre bacini di intraslope (Olbia, Baronie e il settore settentrionale del bacino Ogliastra) sono stati investigati. Il bacino di Olbia è il bacino più settentrionale del margine orientale della Sardegna ed è limitato verso mare dai seamount Etruschi e Baronie. Il principale sistema torbiditico del bacino di Olbia è costituito dal Caprera, articolato in un sistema di canyon alimentatori nella piattaforma e nella scarpata continentale e da un ampio canale con argini alla base della scarpata. Il Caprera è fiancheggiato da un ampia piattaforma continentale, e questa, fungendo da “magazzino” per il materiale piu grossolando, può spiegare la peculiare architettura sedimentaria del suo fan. L'effetto di confinamento del bacino sulla forma e sull'evoluzione del fan del Caprera è evidente soprattutto sull'asimmetria dei leve e su fenomeni di avulsione che hanno coinvolto il canale. Il bacino di intraslope di Olbia appare completamente riempito, e, nel bordo orientale, è presente il canyon di intrabacino verso il bacino sottostante. Gli effetti dell'abbassamento del livello di base sono visibili nel settore distale del sistema, dove si ha lo sviluppo di canali distributari e di valli erosive a basso rilievo, che rappresentano le porzioni "upslope" dei canyon di "bypass". Il bacino di intraslope del Baronie è il bacino centrale del margine, confinato verso mare dal seamount delle Baronie, e presenta una via di fuga laterale rappresentato dal sistema di canyon di Gonone-Orosei. Il Posada è il sistema torbiditico principale, consiste di un canyon profondamente inciso nella piattaforma e nella scarpata, e sviluppa alla base della scarpata un piccolo fa radiale. La morfologia del è il risultato dell'interazione complessa tra la geoemtria del bacino ricevente ed il comportamento dei flussi sedimentari. La forma del bacino ha costretto il sistema torbiditico a cambiare la direzione di sviluppo, da est verso sud. Processi di framanento in massa a grande scala hanno inoltre contribuito alla riorganizzazione del sistema torbiditico. Il bacino dell’Ogliastra è localizzato nel settore meridionale del margine, limitato verso mare dal seamount Quirra. Il settore settentrionale della scarpata continentale del bacino Ogliastra è caratterizzato da canyon e incisioni di carattere ibrido, con tratti deposizionali ed erosivi. L'Arbatax è il principale sistema torbiditico del bacino di Ogliastra caratterizzato da un settore meridionale dominato da un canale alimentatore e da un settore settentrionale abbandonato, caratterizzato da fenomeni di smantellamento e instabilità gravitativa. In generale i risultati dello studio evidenziano l'importanza della combinazione dei fattori di controllo esterni, e della topografia preesistente, nello sviluppo dei processi sedimentari e degli elementi deposizionali dei sistemi torbiditici. In particolare, appare evidente come lo stile deposizionale dei sistemi torbiditici in ambiente confinato diverga sostanzialmente da quello previsto dai modelli di fan sottomarini usati come strumenti predittivi nella esplorazione e sfruttamento dei giacimenti di idrocarburi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi verranno trattati sia il problema della creazione di un ambiente di simulazione a domini fisici misti per dispositivi RF-MEMS, che la definizione di un processo di fabbricazione ad-hoc per il packaging e l’integrazione degli stessi. Riguardo al primo argomento, sarà mostrato nel dettaglio lo sviluppo di una libreria di modelli MEMS all’interno dell’ambiente di simulazione per circuiti integrati Cadence c . L’approccio scelto per la definizione del comportamento elettromeccanico dei MEMS è basato sul concetto di modellazione compatta (compact modeling). Questo significa che il comportamento fisico di ogni componente elementare della libreria è descritto per mezzo di un insieme limitato di punti (nodi) di interconnessione verso il mondo esterno. La libreria comprende componenti elementari, come travi flessibili, piatti rigidi sospesi e punti di ancoraggio, la cui opportuna interconnessione porta alla realizzazione di interi dispositivi (come interruttori e capacità variabili) da simulare in Cadence c . Tutti i modelli MEMS sono implementati per mezzo del linguaggio VerilogA c di tipo HDL (Hardware Description Language) che è supportato dal simulatore circuitale Spectre c . Sia il linguaggio VerilogA c che il simulatore Spectre c sono disponibili in ambiente Cadence c . L’ambiente di simulazione multidominio (ovvero elettromeccanico) così ottenuto permette di interfacciare i dispositivi MEMS con le librerie di componenti CMOS standard e di conseguenza la simulazione di blocchi funzionali misti RF-MEMS/CMOS. Come esempio, un VCO (Voltage Controlled Oscillator) in cui l’LC-tank è realizzato in tecnologia MEMS mentre la parte attiva con transistor MOS di libreria sarà simulato in Spectre c . Inoltre, nelle pagine successive verrà mostrata una soluzione tecnologica per la fabbricazione di un substrato protettivo (package) da applicare a dispositivi RF-MEMS basata su vie di interconnessione elettrica attraverso un wafer di Silicio. La soluzione di packaging prescelta rende possibili alcune tecniche per l’integrazione ibrida delle parti RF-MEMS e CMOS (hybrid packaging). Verranno inoltre messe in luce questioni riguardanti gli effetti parassiti (accoppiamenti capacitivi ed induttivi) introdotti dal package che influenzano le prestazioni RF dei dispositivi MEMS incapsulati. Nel dettaglio, tutti i gradi di libertà del processo tecnologico per l’ottenimento del package saranno ottimizzati per mezzo di un simulatore elettromagnetico (Ansoft HFSSTM) al fine di ridurre gli effetti parassiti introdotti dal substrato protettivo. Inoltre, risultati sperimentali raccolti da misure di strutture di test incapsulate verranno mostrati per validare, da un lato, il simulatore Ansoft HFSSTM e per dimostrate, dall’altro, la fattibilit`a della soluzione di packaging proposta. Aldilà dell’apparente debole legame tra i due argomenti sopra menzionati è possibile identificare un unico obiettivo. Da un lato questo è da ricercarsi nello sviluppo di un ambiente di simulazione unificato all’interno del quale il comportamento elettromeccanico dei dispositivi RF-MEMS possa essere studiato ed analizzato. All’interno di tale ambiente, l’influenza del package sul comportamento elettromagnetico degli RF-MEMS può essere tenuta in conto per mezzo di modelli a parametri concentrati (lumped elements) estratti da misure sperimentali e simulazioni agli Elementi Finiti (FEM) della parte di package. Infine, la possibilità offerta dall’ambiente Cadence c relativamente alla simulazione di dipositivi RF-MEMS interfacciati alla parte CMOS rende possibile l’analisi di blocchi funzionali ibridi RF-MEMS/CMOS completi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi di dottorato si propone lo sviluppo di un modello spazialmente distribuito per produrre una stima dell'erosione superficiale in bacini appenninici. Il modello è stato progettato per simulare in maniera fisicamente basata il distacco di suolo e di sedimento depositato ad opera delle precipitazioni e del deflusso superficiale, e si propone come utile strumento per lo studio della vulnerabilità del territorio collinare e montano. Si è scelto un bacino collinare dell'Appennino bolognese per testare le capacità del modello e verificarne la robustezza. Dopo una breve introduzione per esporre il contesto in cui si opera, nel primo capitolo sono presentate le principali forme di erosione e una loro descrizione fisico-matematica, nel secondo capitolo verranno introdotti i principali prodotti della modellistica di erosione del suolo, spiegando quale interpretazione dei fenomeni fisici è stata data. Nel terzo capitolo verrà descritto il modello oggetto della tesi di dottorando, con una prima breve descrizione della componente afflussi-deflussi ed una seconda descrizione della componente di erosione del suolo. Nel quarto capitolo verrà descritto il bacino di applicazione del modello, i risultati della calibrazione ed un'analisi di sensitività. Infine si presenteranno le conclusioni sullo studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quesiti di esame per i corsi di Fisica Generale. I compiti di esame contengono quesiti sorteggiati da questa lista, nell'ultima versione disponibile sul Web 15 giorni prima della data di esame. I punteggi riportati a fianco dei quesiti/esercizi sono calcolati dinamicamente sulla base dei precedenti risultati nelle prove di esame, in modo da rendere il secondo terzile della distribuzione dei voti sul singolo esercizio pari a 3/3. In altre parole il punteggio assegnato al singolo quesito/esercizio è tale da assicurare che un terzo degli studenti che hanno affrontato l'esercizio ottenga la massima valutazione. Il punteggio degli esercizi riportato sul file è indicativo. Esso si modifica dinamicamente a ogni esame, in modo che a ogni esame diviene una valutazione più precisa della difficoltà dell'esercizio (all'aumentare della statistica sperimentale l'errore di misura diminuisce).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quesiti di esame per i corsi di Fisica Generale. I compiti di esame contengono quesiti sorteggiati da questa lista, nell'ultima versione disponibile sul Web 15 giorni prima della data di esame. I punteggi riportati a fianco dei quesiti/esercizi sono calcolati dinamicamente sulla base dei precedenti risultati nelle prove di esame, in modo da rendere il secondo terzile della distribuzione dei voti sul singolo esercizio pari a 3/3. In altre parole il punteggio assegnato al singolo quesito/esercizio è tale da assicurare che un terzo degli studenti che hanno affrontato l'esercizio ottenga la massima valutazione. Il punteggio degli esercizi riportato sul file è indicativo. Esso si modifica dinamicamente a ogni esame, in modo che a ogni esame diviene una valutazione più precisa della difficoltà dell'esercizio (all'aumentare della statistica sperimentale l'errore di misura diminuisce).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PREMESSA: La progressione della recidiva d’epatite C è accelerata nei pazienti sottoposti a trapianto di fegato e ciò ha portato alla necessità di sviluppare nuove e validate metodiche non invasive per la quantificazione e la misura della fibrosi epatica. SCOPI: Stabilire l’efficacia dell’elastometria epatica (Fibroscan®) e dei parametri sierici di fibrosi, attualmente disponibili nella pratica clinica, per predire il grado di fibrosi nei pazienti sottoposti a trapianto epatico. METODI: La correlazione fra fibrosi epatica, determinata mediante biopsia epatica ed esame istologico, e Fibroscan® o indici clinico-sierologici di fibrosi (Benlloch, Apri, Forns, Fibrotest and Doppler resistance index), è stata studiata in pazienti che avevano ricevuto un trapianto ortotopico di fegato con evidenza di recidiva d’epatite da HCV. Un totale di 36 pazienti, con la seguente classificazione istologica: fibrosi secondom METAVIR F1=24, F2=8, F3=3, F4=1, sono stati arruolati nella popolazione oggetto di studio. Un totale di 29 individui volontari sani sono serviti come controllo. Le differenze fra gli stadi di fibrosi sono state calcolate mediante analisi statistica non parametrica. Il miglior cut-off per la differenziazione di fibrosi significativa (F2-F4) è stato identificato mediante l’analisi delle curve ROC. RISULTATI: La rigidità epatica ha presentato valori di 4.4 KPa (2.7-6.9) nei controlli (mediane e ranges), con valori in tutti i soggeti <7.0 KPa; 7.75 KPa (4.2-28.0) negli F1; 16.95 KPa (10.2-31.6) negli F2; 21.10 KPa nell’unico paziente F4 cirrotico. Le differenze sono state statisticamente significative per i soggetti controllo versus F1 e F2 (p<0.0001) e per F1 versus F2 (p<0.0001). Un cut-off elastografico di 11.2 KPagarantisce 88% di Sensibilità, 90% di Specificità, 79% di PPV e 95% di NPV nel differenziare i soggetti F1 dagli F2-F4. Le AUROC, relativamente alla capacità di discriminare fra i differenti gradi di fibrosi, evidenziavano un netto vantaggio per il Fibroscan® rispetto ad ognuno degli indici non invasivi di fibrosi. CONCLUSIONI: L’elastometria epatica presenta una buona accuratezza diagnostica nell’identificare pazienti con fibrosi epatica di grado significativo, superiore a quella di tutti gli altri test non invasivi al momento disponibili nella clinica, nei pazienti portatori di trapianto epatico ortotopico da cadavere con recidiva di HCV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nelle epatopatie croniche l’estensione della fibrosi è il principale determinante della prognosi. Sebbene la biopsia epatica rimanga il gold standard ai fini di una stadiazione, il crescente interesse nei confronti di metodi diagnostici non invasivi di fibrosi ha portato allo sviluppo di diversi modelli predittivi basati su parametri clinicolaboratoristici quali Fibrotest, indice APRI, indice Forns. Gli scopi dello studio sono: di stabilire l’accuratezza di un’analisi con rete neurale artificiale (ANN), tecnica di cui è stata dimostrata l’efficacia predittiva in situazioni biologiche complesse nell’identificare lo stadio di fibrosi, di confrontarne i risultati con quelli ottenuti dal calcolo degli indici APRI e Forns sullo stesso gruppo di pazienti e infine di validarne l’efficacia diagnostica in gruppi esterni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una breve introduzione sulla storia del mosaico: dalle origine alle sue evoluzione tipologiche e tecnologiche nel tempo, di come si organizzavano le antiche botteghe del mosaico e le suddivisione dei compiti tra il pictor imaginarius, pictor parietarius e il musivarius (la gerarchia) all’interno di essi; la tecniche esecutiva per la messa in opera dei mosaici pavimentali romani. Visto che i mosaici si trovano a Suasa, quindi è stata riassunta la storia della città romana di Suasa con le sua varie fase edilizie, con maggior approfondimenti per gli edifici che presentano pavimentazione a mosaico: in primo luogo è la domus dei Coiedii contenente più di diciotto pavimenti in opus tessellatum. Il secondo è quello del così detto Edificio 4 (ancora inedito e di incerta natura e destinazione) portato in luce solo parzialmente con due settore a mosaico. Successivamente è stato effettuato in maniera dettagliata lo studio dello stato di conservazione dei vani musivi che sono state oggetto in senso stretto dei varie interventi conservativi, sia nella domus dei Coiedii (vano AU, oecus G e vano BB) che in Edificio 4 (vano A e vano D), evidenziando così le diverse morfologie di degrado in base “Normativa UNI 11176/2006 con l’aiuto della documentazione grafica ed fotografica. Un ampio e complessivo studio archeometrico-tecnologico dei materiali impiegati per la realizzazione dei musaici a Suasa (tessere e malte) presso i laboratori del CNR di Faenza.. Sono stati prelevati complessivamente 90 campione da tredici vani musivi di Suasa, di cui 28 campione di malte, comprese tra allettamento e di sottofondo,42 tessere lapidee e 20 tessere vitree; questi ultimi appartengono a sette vani della domus. Durante l’operazione del prelevo, è stato presso in considerazione le varie tipologie dei materiali musivi, la cromia ed le morfologie di degrado che erano presente. Tale studio ha lo scopo di individuare la composizione chimico-mineropetrografico, le caratteristiche tessiturali dei materiali e fornire precisa informazione sia per fine archeometrici in senso stretto (tecnologie di produzione, provenienza, datazione ecc.), che come supporto ai interventi di conservazione e restauro. Infine si è potuto costruire una vasta banca dati analitici per i materiali musivi di Suasa, che può essere consultata, aggiornata e confrontata in futuro con altri materiali proveniente dalla stessa province e/o regione. Applicazione dei interventi conservativi: di manutenzione, pronto intervento e di restauro eseguiti sui vani mosaicati di Suasa che presentavano un pessimo stato di conservazione e necessitavano l’intervento conservativo, con la documentazione grafica e fotografica dei varie fase dell’intervento. In particolare lo studio dei pregiatissimi materiali marmorei impiegati per la realizzazione dell’opus sectile centrale (sala G) nella domus dei Coiedii, ha portato alla classificazione e alla schedatura di sedici tipi di marmi impiegati; studio esteso poi al tessellato che lo circonda: studio del andamento, tipologie dei materiali, dei colore, dimensione delle tessere, interstizio ecc., ha permesso con l’utilizzo delle tavole tematiche di ottenere una chiara lettura per l’intero tessellato, di evidenziare così, tutti gli interventi antiche e moderni di risarciture, eseguiti dal II sec. d.C. fio ad oggi. L’aspetto didattico (teorico e pratico) ha accompagnato tutto il lavoro di ricerca Il lavoro si qualifica in conclusione come un esempio assai significativo di ricerca storicoiconografiche e archeometriche, con risultati rilevanti sulle tecnologie antiche e sui criteri di conservazione più idonei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo degli FRP (Fiber Reinforced Polymer) nel campo dell’ingegneria civile riguarda essenzialmente il settore del restauro delle strutture degradate o danneggiate e quello dell’adeguamento statico delle strutture edificate in zona sismica; in questi settori è evidente la difficoltà operativa alla quale si va in contro se si volessero utilizzare tecniche di intervento che sfruttano materiali tradizionali. I motivi per cui è opportuno intervenire con sistemi compositi fibrosi sono: • l’estrema leggerezza del rinforzo, da cui ne deriva un incremento pressoché nullo delle masse sismiche ed allo stesso tempo un considerevole aumento della duttilità strutturale; • messa in opera senza l’ausilio di particolari attrezzature da un numero limitato di operatori, da cui un minore costo della mano d’opera; • posizionamento in tempi brevi e spesso senza interrompere l’esercizio della struttura. Il parametro principale che definisce le caratteristiche di un rinforzo fibroso non è la resistenza a trazione, che risulta essere ben al di sopra dei tassi di lavoro cui sono soggette le fibre, bensì il modulo elastico, di fatti, più tale valore è elevato maggiore sarà il contributo irrigidente che il rinforzo potrà fornire all’elemento strutturale sul quale è applicato. Generalmente per il rinforzo di strutture in c.a. si preferiscono fibre sia con resistenza a trazione medio-alta (>2000 MPa) che con modulo elastico medio-alto (E=170-250 GPa), mentre per il recupero degli edifici in muratura o con struttura in legno si scelgono fibre con modulo di elasticità più basso (E≤80 GPa) tipo quelle aramidiche che meglio si accordano con la rigidezza propria del supporto rinforzato. In questo contesto, ormai ampliamente ben disposto nei confronti dei compositi, si affacciano ora nuove generazioni di rinforzi. A gli ormai “classici” FRP, realizzati con fibre di carbonio o fibre di vetro accoppiate a matrici organiche (resine epossidiche), si affiancano gli FRCM (Fiber Reinforced Cementitious Matrix), i TRM (Textile Reinforced Mortars) e gli SRG (Steel Reinforced Grout) che sfruttano sia le eccezionali proprietà di fibre di nuova concezione come quelle in PBO (Poliparafenilenbenzobisoxazolo), sia un materiale come l’acciaio, che, per quanto comune nel campo dell’edilizia, viene caratterizzato da lavorazioni innovative che ne migliorano le prestazioni meccaniche. Tutte queste nuove tipologie di compositi, nonostante siano state annoverate con nomenclature così differenti, sono però accomunate dell’elemento che ne permette il funzionamento e l’adesione al supporto: la matrice cementizia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le acque di vegetazione (AV) costituiscono un serio problema di carattere ambientale, sia a causa della loro elevata produzione sia per l’ elevato contenuto di COD che oscilla fra 50 e 150 g/l. Le AV sono considerate un refluo a tasso inquinante fra i più elevati nell’ambito dell’industria agroalimentare e la loro tossicità è determinata in massima parte dalla componente fenolica. Il presente lavoro si propone di studiare e ottimizzare un processo non solo di smaltimento di tale refluo ma anche di una sua valorizzazione, utlizzandolo come materia prima per la produzione di acidi grassi e quindi di PHA, polimeri biodegradabili utilizzabili in varie applicazioni. A tale scopo sono stati utilizzati due bioreattori anaerobici a biomassa adesa, di identica configurazione, con cui si sono condotti due esperimenti in continuo a diverse temperature e carichi organici al fine di studiare l’influenza di tali parametri sul processo. Il primo esperimento è stato condotto a 35°C e carico organico pari a 12,39 g/Ld, il secondo a 25°C e carico organico pari a 8,40 g/Ld. Si è scelto di allestire e mettere in opera un processo a cellule immobilizzate in quanto questa tecnologia si è rivelata vantaggiosa nel trattamento continuo di reflui ad alto contenuto di COD e carichi variabili. Inoltre si è scelto di lavorare in continuo poiché tale condizione, per debiti tempi di ritenzione idraulica, consente di minimizzare la metanogenesi, mediata da microrganismi con basse velocità specifiche di crescita. Per costituire il letto fisso dei due reattori si sono utilizzati due diversi tipi di supporto, in modo da poter studiare anche l’influenza di tale parametro, in particolare si è fatto uso di carbone attivo granulare (GAC) e filtri ceramici Vukopor S10 (VS). Confrontando i risultati si è visto che la massima quantità di VFA prodotta nell’ambito del presente studio si ha nel VS mantenuto a 25°C: in tale condizione si arriva infatti ad un valore di VFA prodotti pari a 524,668 mgCOD/L. Inoltre l’effluente in uscita risulta più concentrato in termini di VFA rispetto a quello in entrata: nell’alimentazione la percentuale di materiale organico presente sottoforma di acidi grassi volatili era del 54 % e tale percentuale, in uscita dai reattori, ha raggiunto il 59 %. Il VS25 rappresenta anche la condizione in cui il COD degradato si è trasformato in percentuale minore a metano (2,35 %) e questo a prova del fatto che l’acidogenesi ha prevalso sulla metanogenesi. Anche nella condizione più favorevole alla produzione di VFA però, si è riusciti ad ottenere una loro concentrazione in uscita (3,43 g/L) inferiore rispetto a quella di tentativo (8,5 g/L di VFA) per il processo di produzione di PHA, sviluppato da un gruppo di ricerca dell’università “La Sapienza” di Roma, relativa ad un medium sintetico. Si può constatare che la modesta produzione di VFA non è dovuta all’eccessiva degradazione del COD, essendo questa nel VS25 appena pari al 6,23%, ma piuttosto è dovuta a una scarsa concentrazione di VFA in uscita. Questo è di buon auspicio nell’ottica di ottimizzare il processo migliorandone le prestazioni, poiché è possibile aumentare tale concentrazione aumentando la conversione di COD in VFA che nel VS25 è pari a solo 5,87%. Per aumentare tale valore si può agire su vari parametri, quali la temperatura e il carico organico. Si è visto che il processo di acidogenesi è favorito, per il VS, per basse temperature e alti carichi organici. Per quanto riguarda il reattore impaccato con carbone attivo la produzione di VFA è molto ridotta per tutti i valori di temperatura e carichi organici utilizzati. Si può quindi pensare a un’applicazione diversa di tale tipo di reattore, ad esempio per la produzione di metano e quindi di energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.