427 resultados para indirizzo :: 908 :: Processi e materiali
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
L’uso di materiali compositi nel rinforzo delle strutture in legno sotto l’azione dei carichi, richiede particolare attenzione ad importanti aspetti. Per esempio, è molto importante pianificare il tipo di intervento da realizzare. Infatti esistono varie tecniche per rinforzare elementi lignei usando diversi “layouts” degli FRP, ognuno dei quali può conferire risultati diversi. Come riporta la figura 55 [31], ci possono essere diverse tipologie di applicazione dei rinforzi.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
Nel mio elaborato, sono trattati i processi di produzione e riciclaggio dei principali materiali da imballaggio, con un'analisi sugli impatti ambientali ed economici dei processi.
Resumo:
Nella Regione Emilia-Romagna, la zona delle conoidi ha una valenza strategica essendo la principale fonte di approvvigionamento idropotabile per le utenze civili, oltre che sostegno per le attività industriali ed agricole. All’interno di questo contesto ci si è soffermati sulla provincia di Piacenza, scegliendo come aree di studio le Conoidi del Trebbia e dell’Arda, per valutare le dinamiche di ricarica naturale attraverso l’identificazione della relazione che intercorre fra (i) l’entità dei deflussi superficiali riferiti ai corsi idrici che alimentano le conoidi, e (ii) il livello piezometrico nei rispettivi acquiferi. L’analisi è stata condotta applicando il modello Auto-Regressive Distributed Lag (ARDL).
Resumo:
La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
Il TiO2 è probabilmente il fotocatalizzatore maggiormente studiato in letteratura a partire già dagli anni settanta. Le applicazioni più rilevanti dei dispositivi fotocatalitici sono in campo ambientale (depurazione delle acque da inquinanti quali coloranti, microbatteri e residui metallici) e nella produzione di "solar fuel" (combustibili solari), fra questi l'idrogeno. L'idrogeno come vettore energetico è eco-compatibile e può essere utilizzato come carburante il cui prodotto di scarto è vapor d'acqua. Il biossido di titanio è uno dei materiali più promettenti per la costruzione di celle fotocatalitiche, grazie alla sua biocompatibilità e resistenza alla corrosione in ambiente acquoso. Il limite principale di questo materiale è legato allo scarso assorbimento nel visibile dovuto al band gap troppo elevato (circa 3.2 eV). Fra le varie strategie per superare questo problema, è stato mostrato che opportuni droganti permettono di incrementare la "Visible Light Activity", portando ai cosiddetti fotocatalizzatori di 2a generazione. I droganti più promettenti sono il vanadio e l'azoto che possono essere utilizzati singolarmente o in co-doping. L'inserimento di questi materiali nella matrice di TiO2 porta a un notevole miglioramento dei dispositivi abbassando il valore di band gap e permettendo un maggiore assorbimento nello spettro solare. Scopo di questa tesi è lo studio dei processi di crescita di film nanoparticellari di TiO2 drogato con vanadio. La tecnica di crescita usata è la Condensazione in Gas Inerte (IGC), mentre per l'indagine di morfologia e composizione ci si è serviti della microscopia elettronica. Con l'ausilio della diffrazione di raggi X è stato possibile controllare lo stato di cristallizzazione e determinare a quali temperature di trattamento in atmosfera ossidante avviene quest'ultima. Tramite le misure micro-Raman effettuate presso i laboratori dell'Università di Trento è stato possibile monitorare l'andamento della cristallizzazione di campioni depositati con parametri di evaporazione differenti (presenza di ossigeno o meno nell'atmosfera di evaporazione), evidenziando un maggior controllo sulla fase cristallina ottenuta per i campioni cresciuti in atmosfera ricca di ossigeno. Sono state effettuate analisi strutturali avanzate presso i laboratori ESRF di Grenoble, dove sono state portate avanti misure di assorbimento di raggi X di tipo EXAFS e XANES sulla soglia del titanio e del vanadio, evidenziando il carattere sostituzionale del vanadio all'interno della matrice di TiO2 e le diverse fasi di cristallizzazione.
Resumo:
Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.
Resumo:
Questa tesi di laurea è uno studio magmatologico, sedimentologico e morfostrutturale dei depositi dell’eruzione del Vesuvio del 1944, con particolare riferimento ai depositi di valanghe ardenti associati ad essa. Lo studio è stato affrontato utilizzando metodologie petrografiche, di chimica dei minerali e geotermo-barometriche al fine di ricavare informazioni sul sistema magmatico e sulla dinamica eruttiva nel corso dell’eruzione. I dati petrochimici e l’utilizzo di modelli geotermo-barometrici, unitamente alle informazioni dalla letteratura, indicano che il fattore di trigger che ha determinato il passaggio dalla iniziale effusione di colate laviche alle successive intense fasi di attività esplosiva ultrastromboliana è rappresentato dalla risalita di magma meno evoluto e più ricco in volatili dalla camera magmatica profonda (11-22 km) verso quella più superficiale (circa 3 km) dove ha interagito con il magma lì presente. Durante queste fasi a maggiore esplosività si è avuto sulla parte sommitale del cono un rapido accumulo di materiale ad elevata temperatura e l’instaurarsi di condizioni di overloading dei fianchi con aumento dell’angolo di pendio e conseguente instabilità. Ciò ha verosimilmente determinato la generazione di flussi di valanghe ardenti per rimobilizzazione sin-deposizionale del materiale piroclastico da caduta, probabilmente in seguito ad eventi sismici come elementi di innesco. I flussi di valanghe ardenti del 1944 sono stati interpretati come flussi granulari secchi, in base ai dati sedimentologici e vulcanologici raccolti nel corso dell’attività di terreno, rendendo possibile l’applicazione dei modelli elaborati da Castioni (2015) per la stima della velocità massima del flusso e degli assi maggiore e minore del deposito corrispondente. Sono state ricavate velocità che variano da un minimo di circa 4 m/s ad un massimo di circa 16 m/s in un range che è tipico di flussi granulari in ambiente vulcanico. Le variazioni della velocità sono state messe in relazione con la morfologia del pendio, il tipo di materiale coinvolto nel processo di rimobilizzazione e l’organizzazione interna del flusso, evidenziando in particolare come le maggiori lunghezze siano raggiunte dai flussi che hanno la possibilità di scorrere su pendii più omogenei e con più ridotte variazioni dell'angolo di pendio. La definizione di valori di velocità per i flussi di valanghe ardenti dell'eruzione del 1994 fornisce un ulteriore elemento utile per la valutazione della pericolosità vulcanica del Vesuvio.
Resumo:
Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.
Resumo:
La fabbricazione additiva è una classe di metodi di fabbricazione in cui il componente viene costruito aggiungendo strati di materiale l’uno sull’altro, sino alla completa realizzazione dello stesso. Si tratta di un principio di fabbricazione sostanzialmente differente da quelli tradizionali attualmente utilizzati, che si avvalgono di utensili per sottrarre materiale da un semilavorato, sino a conferire all’oggetto la forma desiderata, mentre i processi additivi non richiedono l’utilizzo di utensili. Il termine più comunemente utilizzato per la fabbricazione additiva è prototipazione rapida. Il termine “prototipazione”’ viene utilizzato in quanto i processi additivi sono stati utilizzati inizialmente solo per la produzione di prototipi, tuttavia con l’evoluzione delle tecnologie additive questi processi sono sempre più in grado di realizzare componenti di elevata complessità risultando competitivi anche per volumi di produzione medio-alti. Il termine “rapida” viene invece utilizzato in quanto i processi additivi vengono eseguiti molto più velocemente rispetto ai processi di produzione convenzionali. La fabbricazione additiva offre diversi vantaggi dal punto di vista di: • velocità: questi processi “rapidi” hanno brevi tempi di fabbricazione. • realizzazione di parti complesse: con i processi additivi, la complessità del componente ha uno scarso effetto sui tempi di costruzione, contrariamente a quanto avviene nei processi tradizionali dove la realizzazione di parti complesse può richiedere anche settimane. • materiali: la fabbricazione additiva è caratterizzata dalla vasta gamma di materiali che può utilizzare per la costruzione di pezzi. Inoltre, in alcuni processi si possono costruire pezzi le cui parti sono di materiali diversi. • produzioni a basso volume: molti processi tradizionali non sono convenienti per le produzioni a basso volume a causa degli alti costi iniziali dovuti alla lavorazione con utensili e tempi di setup lunghi.