755 resultados para 620.4 Ingegneria per specifici tipi di ambiente geografico
Resumo:
In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Il seguente elaborato è frutto del lavoro di ricerca, della durata di cinque mesi, svolto presso il Department of Catchment Hydrology del centro di ricerca UFZ (Helmholtz-Zentrum für Umweltforschung) con sede in Halle an der Saale, Germania. L’obiettivo della Tesi è la stima della ricarica della falda acquifera in un bacino idrografico sprovvisto di serie di osservazioni idrometriche di lunghezza significativa e caratterizzato da clima arido. Il lavoro di Tesi è stato svolto utilizzando un modello afflussi-deflussi concettualmente basato e spazialmente distribuito. La modellistica idrologica in regioni aride è un tema a cui la comunità scientifica sta dedicando numerosi sforzi di ricerca, presentando infatti ancora numerosi problemi aperti dal punto di vista tecnico-scientifico, ed è di primaria importanza per il sostentamento delle popolazioni che vi abitano. Le condizioni climatiche in queste regioni fanno sì che la falda acquifera superficiale sia la principale fonte di approvvigionamento; una stima affidabile della sua ricarica, nel tempo e nello spazio, permette un corretta gestione delle risorse idriche, senza la quale il fabbisogno idrico di queste popolazioni non potrebbe essere soddisfatto. L’area oggetto di studio è il bacino idrografico Darga, una striscia di terra di circa 74 km2, situata in Cisgiordania, la cui sezione di chiusura si trova a circa 4 kilometri dalla costa del Mar Morto, mentre lo spartiacque a monte, ubicato a Nord-ovest, dista circa 3 kilometri dalla città di Gerusalemme.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
L'obiettivo del presente lavoro è quello di modellare diversi tipi di sospensioni semi attive del sedile di una trattrice agricola ed implementare diverse strategie di controllo di smorzamento e rigidezza al fine di minimizzare la propagazione delle vibrazioni al corpo dell'operatore.
Resumo:
Questo lavoro di tesi tratta l'utilizzo di misure idrometriche satellitari in combinazione con le misure idrometriche tradizionali per la calibrazione dei modelli numerico-idraulici. Il presente elaborato riguarda la calibrazione di un complesso modello idraulico del Fiume Po implementato in HEC-RAS. Il caso di studio è un tratto del Fiume Po lungo circa 131 km, che va dalla sezione relativa alla stazione idrometrica di Borgoforte e termina all'incile del Po di Goro. Le Analisi numeriche svolte si suddividono in tre gruppi, il primo sfrutta l'impiego di soli dati idrometrici tradizionali, il secondo l'impiego di soli dati idrometrici satellitari e il terzo l'impiego di entrambe le tipologie di dati idrometrici.
Resumo:
Il mercato, in questi ultimi dieci anni, si è modificato in un qualcosa di più globale e competitivo. Questa trasformazione ha imposto alle imprese l’adozione di strategie orientate all’innovazione di prodotto e di processo, e all’efficienza industriale “Environmentally friendly” di lungo periodo. Le aziende, infatti, per competere sia nel territorio nazionale sia in quello internazionale, sono alla costante ricerca di una continua ottimizzazione, attraverso il processo “deming” del miglioramento continuo, delle proprie prestazioni; spesso però capita che massimizzino esclusivamente la performance produttiva, che è stata migliorata con l’introduzione, oramai da circa 35 anni, della Lean production e oggi quindi presenta limitati margini di miglioramento. È alla luce di questo ragionamento che le aziende, quelle più lungimiranti, stanno cercando di dirigersi verso un’altra direzione, ovvero quella che mira a ridurre gli sprechi e le perdite, di risorse naturali, nei processi produttivi, in accordo coi principi della sostenibilità ambientale. Considerando le quantità di risorse naturali messe in gioco in grandi aziende quali la VM Motori S.p.A. possiamo intuire quanta marginalità di miglioramento potremmo ottenere con l’attuazione di processi di miglioramento focalizzati sui singoli aspetti. I primi due capitoli trattano il tema dello sviluppo sostenibile e del S.G.A. in Italia e all’estero. Nel capitolo 3 introduco l’Azienda, descrivo tutte le fasi di processo per la fabbricazione di varie tipologie di motori rigorosamente diesel, l’impianto elettrico, termico e di aria compressa. Nel capitolo 4 faccio l’analisi di tutti gli aspetti e gli impatti ambientali; inoltre, per ogni fattore d’impatto ambientale, verrà compilata la cosiddetta VIA che sarà riassunta nell’ultimo paragrafo. Nel capitolo 5 affronto il concetto del miglioramento continuo applicando la filosofia del World Class Manufacturing che è stato implementato in Azienda.
Resumo:
La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.
Resumo:
L’evoluzione dei componenti elettronici di potenza ed il conseguente sviluppo dei convertitori statici dell’energia elettrica hanno consentito di ottenere un’elevata efficienza energetica, sia nell’ambito degli azionamenti elettrici, sia nell’ambito della trasmissione e distribuzione dell’energia elettrica. L’efficienza energetica è una questione molto importante nell’attuale contesto storico, in quanto si sta facendo fronte ad una elevatissima richiesta di energia, sfruttando prevalentemente fonti di energia non rinnovabili. L’introduzione dei convertitori statici ha reso possibile un notevolissimo incremento dello sfruttamento delle fonti di energia rinnovabili: si pensi ad esempio agli inverter per impianti fotovoltaici o ai convertitori back to back per applicazioni eoliche. All’aumentare della potenza di un convertitore aumenta la sua tensione di esercizio: le limitazioni della tensione sopportabile dagli IGBT, che sono i componenti elettronici di potenza di più largo impiego nei convertitori statici, rendono necessarie modifiche strutturali per i convertitori nei casi in cui la tensione superi determinati valori. Tipicamente in media ed alta tensione si impiegano strutture multilivello. Esistono più tipi di configurazioni multilivello: nel presente lavoro è stato fatto un confronto tra le varie strutture esistenti e sono state valutate le possibilità offerte dall’architettura innovativa Modular Multilevel Converter, nota come MMC. Attualmente le strutture più diffuse sono la Diode Clamped e la Cascaded. La prima non è modulare, in quanto richiede un’apposita progettazione in relazione al numero di livelli di tensione. La seconda è modulare, ma richiede alimentazioni separate e indipendenti per ogni modulo. La struttura MMC è modulare e necessita di un’unica alimentazione per il bus DC, ma la presenza dei condensatori richiede particolare attenzione in fase di progettazione della tecnica di controllo, analogamente al caso del Diode Clamped. Un esempio di possibile utilizzo del convertitore MMC riguarda le trasmissioni HVDC, alle quali si sta dedicando un crescente interesse negli ultimi anni.
Resumo:
Obiettivo della presente ricerca è stato la valutazione dell’utilizzo degli scarti derivanti dal processo di vinificazione come substrato per la digestione anerobica finalizzata alla produzione di VFA (“Volatile Fatty Acids”). I VFA sono acidi grassi a corta catena, convenzionalmente fino a 6 atomi di carbonio, che possono essere utilizzati industrialmente nell’ambito della “Carboxilation Platfrorm” per produrre energia, prodotti chimici, o biomateriali. La sperimentazione si è articolata in due fasi principali: 1) Produzione di VFA in processi batch alimentati con vinacce e fecce come substrato; 2) Recupero dei VFA prodotti dall’effluente anaerobico (digestato) mediante processi di adsorbimento con resine a scambio anionico. Nella prima fase sono stati studiati i profili di concentrazione dei principali VFA nel brodo di fermentazione al variare della tipologia di substrato (vinacce e fecce, bianche e rosse) e della temperatura di incubazione (35 °C e 55 °C). La condizione ottimale rilevata per la produzione di VFA è stata la digestione anaerobica di vinacce rosse disidratate e defenolizzate alla temperatura di 35 °C (mesofilia), che ha permesso di raggiungere una concentrazione di VFA totali nel digestato di circa 30 g/L in 16 giorni di monitoraggio. Nella seconda fase è stato analizzato il processo di estrazione in fase solida (Solid Phase Extraction, SPE) con resine a scambio anionico per il recupero dei VFA dal digestato di vinacce rosse. Sono state messe a confronto le prestazioni di quattro diverse resine a scambio anionico: Sepra SAX, Sepra SAX-ZT, Sepra NH2, Amberlyst A21. I parametri operativi ottimali per l’adsorbimento sono risultati essere condizioni di pH acido pari al valore naturale delle soluzioni indicate sopra (~2.5) e tempo di contatto di 2 ore. Tra le quattro resine quella che ha fornito i migliori risultati è stata la Amberlyst A21, una resina polimerica a scambio anionico debolmente basica il cui gruppo funzionale caratteristico è un’ammina terziaria. Infine è stato valutato il processo di desorbimento dei VFA adsorbiti dalla resina con tre diverse soluzioni desorbenti: acqua demineralizzata, etanolo (EtOH) ed acqua basificata con NaOH (1 mol/L). I risultati migliori sono stati conseguiti nel caso dell’EtOH, ottenendo un recupero finale del 9,1% dei VFA inizialmente presenti nel digestato di vinacce rosse incubate in termofilia.