78 resultados para Formigó -- Efecte de la temperatura


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ossidazione catalitica parziale (CPO) del metano è un processo di elevato interesse scientifico ed industriale, permettendo la produzione su piccola scala di H2 o la produzione di syngas con un rapporto H2/CO = 2, utile per la produzione di metanolo o la sintesi di Fischer-Tropsch di idrocarburi. Inoltre, si possono raggiungere elevate conversioni del metano e selettività in syngas operando a bassi valori del tempo di contatto, riducendo così le dimensioni dei reattori. Tuttavia, gli elevati flussi e le temperature raggiunte nel letto possono condurre rapidamente alla disattivazione del catalizzatore; pertanto, è necessario lo sviluppo di materiali non soltanto attivi, ma anche stabili nelle condizioni di reazione. Lo scopo di questo lavoro è stato lo sviluppo di catalizzatori a base di Rh e ceria, utilizzati sia come pellets che supportati su una schiuma metallica. In particolare, il lavoro è stato focalizzato sulla sintesi, caratterizzazione ed attività catalitica di materiali Rh-CeO2-Al2O3. La presenza di CeO2 può modificare la dispersione del Rh metallico e la sua stabilità nei confronti della sinterizzazione e della formazione del carbone, mentre la stabilità termica è favorita dalla presenza di Al2O3. Poiché queste proprietà e, di conseguenza, le prestazione catalitiche dipendono dalla dimensioni delle particelle di CeO2 sono stati preparati catalizzatori con diverso contenuto di CeO2 (10 e 20 p/p %) ed utilizzando differenti metodi di preparazione per modularne le proprietà. Le sintesi sono effettuate per coprecipitazione e per sintesi con urea per trattamento micronde-idrotermale. Le prestazione dei catalizzatori in pellets sono state analizzate in un impianto di laboratorio operando a bassi valori del tempo di contatto e modificando la temperatura e la concentrazione della miscela gassosa, i.e. sia in condizioni lontane dall’equilibrio termodinamico che in condizioni prossime a quelle industriali. Un catalizzatore con lo stesso contenuto di Rh ed ottenuto da precursori tipo idrotalcite (HT) è stato utilizzato come riferimento. Per incrementare ulteriormente le prestazioni catalitiche, in particolare il trasferimento del calore lungo il letto catalitico, la migliore composizione individuata delle prove precedenti è stata depositata su pellets di una schiuma metallica (FeCrAlloy). E’ stato utilizzato il metodo dell’elettrosintesi per la deposizione di idrossidi di Rh, Ce e Al, ottenendo dopo calcinazione catalizzatori strutturati. Si è valutato l’effetto dei parametri di sintesi, potenziale applicato e tempo, sulle proprietà catalitiche. Anche in questo caso i risultati sono stati confrontati quelli ottenuti con un catalizzatori di riferimento ottenuti da un precursore HT preparati per elettrosintesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nelle coste dell’Adriatico nord-occidentale il manifestarsi di eventi mucillaginosi, dovuti alla microalga Gonyaulax fragilis, negli ultimi anni ha assunto andamenti più frequenti. Ciò ha creato numerose problematiche sia ambientali che legate alle attività produttive. L’obiettivo del lavoro è quello di ricercare i fattori che influenzano la comparsa, lo sviluppo e la persistenza degli aggregati mucillaginosi nella fascia di mare studiata. Sono stati analizzati (per gli anni 2002 – 2003 – 2005 - 2012) i dati registrati dalle campagne di monitoraggio della Struttura Oceanografica Daphne - ARPA ER dal Po di Goro a Cattolica. Sono stati individuati 4 transetti e 12 stazioni di monitoraggio, le più adatte allo studio per via delle loro caratteristiche e della loro distribuzione spaziale. La salinità, la temperatura, la clorofilla “a” e la profondità sono state relazionate, attraverso analisi statistiche, alla presenza/assenza dell’evento mucillaginoso, alla sua intensità ed alla sua persistenza. I risultati indicano che la salinità e la densità dell’aggregato (quest’ultima legata alla profondità) influenzano sia lo svilupparsi che il progredire dell’evento mucillaginoso a differenza della clorofilla “a” e della temperatura. Lo studio attira anche l’attenzione sull’idrodinamismo e sulle condizioni “ecologiche” che possono favorire la comparsa della dinoflagellata Gonyaulax fragilis, fattori ritenuti fondamentali sia per gli aspetti conoscitivi della dinamica del fenomeno che per quelli previsionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR, Faenza, RA), ha affrontato la produzione e la caratterizzazione di ceramici a base di boruro di zirconio (ZrB2) con lo scopo di valutare l’efficacia delle fibre corte di carbonio come potenziale rinforzo. Il boruro di zirconio appartiene a una famiglia di materiali noti come UHTC (Ultra-High Temperature Ceramics) caratterizzati da elevato punto di fusione e in grado di mantenere la resistenza meccanica e operare con limitata ossidazione a temperature superiori ai 2000°C. Il principale ostacolo nella produzione dei materiali a base di ZrB2 è il processo di sintesi, infatti, a causa della loro elevata temperatura di fusione, per ottenere un materiale completamente denso è necessario utilizzare processi a temperatura e pressione elevati (T > 2000°C e P > 30 MPa), condizioni che vanno ad influenzare la microstruttura della matrice e delle fibre e di conseguenza le proprietà meccaniche del materiale. L’aggiunta di additivi di sinterizzazione idonei permette di ottenere materiali perfettamente densi anche a temperature e pressioni inferiori. Tuttavia lo ZrB2 non viene ampiamente utilizzato per applicazioni strutturali a causa della sua fragilità, per far fronte alla sua bassa tenacità il materiale viene spesso rinforzato con una fase allungata (whiskers o fibre). È già oggetto di studi l’utilizzo di fibre corte e whiskers di SiC per tenacizzare lo ZrB2, tuttavia la forte interfaccia che viene a crearsi tra fibra e matrice, che non permette il pull-out delle fibre, ci porta a credere che una fibra che non tenda a reagire con la matrice, presentando un’interfaccia più debole, possa portare ad una tenacizzazione più efficace. Per questo scopo sono stati realizzati mediante pressatura a caldo due materiali rinforzati con fibre corte di carbonio: ZrB2 + 5% vol MoSi2 + 8% vol fibre di carbonio e [ZrB2 + 2 % peso C] + 8% vol fibre di carbonio, indicati rispettivamente con Z5M_Cf e Z2C_Cf. Sono stati analizzati e discussi diversi aspetti del materiale rinforzato tra cui: il comportamento di densificazione durante la pressatura a caldo, l’evoluzione della microstruttura della matrice, la distribuzione e la morfologia delle fibre, l’influenza del rinforzo sulle proprietà meccaniche di durezza e tenacità e sulla resistenza all’ossidazione. L’elaborato è strutturato come segue: inizialmente sono state introdotte le caratteristiche generali dei ceramici avanzati tra cui le proprietà, la produzione e le applicazioni; successivamente è stata approfondita la descrizione dei materiali a base di boruro di zirconio, in particolare i processi produttivi e l’influenza degli additivi di sinterizzazione sulla densificazione e sulle proprietà; ci si è poi concentrati sull’effetto di una seconda fase allungata per il rinforzo del composito. Per quanto riguarda la parte sperimentale vengono descritte le principali fasi della preparazione e caratterizzazione dei materiali: le materie prime, disperse in un solvente, sono state miscelate mediante ball-milling, successivamente è stato evaporato il solvente e la polvere ottenuta è stata formata mediante pressatura uniassiale. I campioni, dopo essere stati sinterizzati mediante pressatura uniassiale a caldo, sono stati tagliati e lucidati a specchio per poter osservare la microstruttura. Quest’ultima è stata analizzata al SEM per studiare l’effetto dell’additivo di sinterizzazione (MoSi2 e carbonio) e l’interfaccia tra matrice e fase rinforzante. Per approfondire l’effetto del rinforzo sulle proprietà meccaniche sono state misurate la durezza e la tenacità del composito; infine è stata valutata la resistenza all’ossidazione mediante prove in aria a 1200°C e 1500°C. L’addizione di MoSi2 ha favorito la densificazione a 1800°C mediante formazione di una fase liquida transiente, tuttavia il materiale è caratterizzato da una porosità residua di ~ 7% vol. L’addizione del carbonio ha favorito la densificazione completa a 1900°C grazie alla reazione dall’additivo con gli ossidi superficiali dello ZrB2. La microstruttura delle matrici è piuttosto fine, con una dimensione media dei grani di ~ 2 μm per entrambi i materiali. Nel caso del materiale con Z5M_Cf sono presenti nella matrice particelle di SiC e fasi MoB derivanti dalla reazione dell’additivo con le fibre e con la matrice; invece nel materiale Z2C_Cf sono presenti grani di carbonio allungati tra i bordi grano, residui delle reazioni di densificazione. In entrambi i materiali le fibre sono distribuite omogeneamente e la loro interfaccia con la matrice è fortemente reattiva. Nel caso del materiale Z5M_Cf si è formata una struttura core-shell con lo strato più esterno formato da SiC, formato dalla reazione tra il siliciuro e la fibra di C. Nel caso del materiale Z2C_Cf non si forma una vera e propria interfaccia, ma la fibra risulta fortemente consumata per via dell’alta temperatura di sinterizzazione. I valori di durezza Vickers dei materiali Z5M_Cf e Z2C_Cf sono rispettivamente 11 GPa e 14 GPa, valori inferiori rispetto al valore di riferimento di 23 GPa dello ZrB2, ma giustificati dalla presenza di una fase meno dura: le fibre di carbonio e, nel caso di Z5M_Cf, anche della porosità residua. I valori di tenacità dei materiali Z5M_Cf e Z2C_Cf, misurati con il metodo dell’indentazione, sono rispettivamente 3.06 MPa·m0.5 e 3.19 MPa·m0.5. L’osservazione, per entrambi i materiali, del fenomeno di pull-out della fibra, sulla superficie di frattura, e della deviazione del percorso della cricca, all’interno della fibra di carbonio, lasciano supporre che siano attivi questi meccanismi tenacizzanti a contributo positivo, unitamente al contributo negativo legato allo stress residuo. La resistenza all’ossidazione dei due materiali è confrontabile a 1200°C, mentre dopo esposizione a 1500°C il materiale Z5M_Cf risulta più resistente rispetto al materiale Z2C_Cf grazie alla formazione di uno strato di SiO2 protettivo, che inibisce la diffusione dell’ossigeno all’interno della matrice. Successivamente, sono stati considerati metodi per migliorare la densità finale del materiale e abbassare ulteriormente la temperatura di sinterizzazione in modo da minimizzare la degenerazione della fibra. Da ricerca bibliografica è stato identificato il siliciuro di tantalio (TaSi2) come potenziale candidato. Pertanto è stato prodotto un terzo materiale a base di ZrB2 + Cf contenente una maggiore quantità di siliciuro (10% vol TaSi2) che ha portato ad una densità relativa del 96% a 1750°C. Questo studio ha permesso di approcciare per la prima volta le problematiche legate all’introduzione delle fibre di carbonio nella matrice di ZrB2. Investigazioni future saranno mirate alla termodinamica delle reazioni che hanno luogo in sinterizzazione per poter analizzare in maniera più sistematica la reattività delle fibre nei confronti della matrice e degli additivi. Inoltre riuscendo ad ottenere un materiale completamente denso e con fibre di carbonio poco reagite si potrà valutare la reale efficacia delle fibre di carbonio come possibili fasi tenacizzanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il termine biochar definisce il prodotto solido derivante dalla pirolisi di un qualsiasi materiale organico, con lo specifico scopo di essere applicato nei suoli sia per fini agronomici che di gestione ambientale. Un suo utilizzo in maniera "responsabile" richiede però una piena comprensione delle sue proprietà e dei meccanismi che controllano la sua attività nel terreno, che dipendono dalla biomassa di partenza e dalle condizioni di sintesi tramite pirolisi. Infatti le condizioni di pirolisi, in particolare la temperatura di processo e il tempo di residenza, determinano biochar con caratteristiche differenti. In questo lavoro di tesi sono stati prodotti biochar da due diverse tipologie di biomassa residuale ampiamente disponibili (stocchi di mais e pollina). Per ciascuna biomassa sono state scelte tre condizioni di pirolisi (400°C x 20 minuti, 500°C x 10 minuti e 600°C x 5 minuti). Sui biochar ottenuti sono state effettuate le seguenti determinazioni: analisi elementare, Pirolisi‐GC‐MS, idrocarburi policiclici aromatici (IPA), acidi grassi volatili (VFA), azoto ammoniacale (N‐NH4 +), pH, conduttività elettrica e ritenzione idrica. Infine i biochar sintetizzati sono stati utilizzati per fare due test di germinazione per valutare l'effetto sulla formazione delle prime strutture di crescita delle plantule, tramite test di tossicità brevi con piastre Petri. Il primo test è stato condotto a concentrazione crescente di miscele acqua/biochar (2, 5, 40 e 100 g/L sulla base delle quantità di biochar utilizzate come ammendante nel suolo), sulla germinazione seguendo la metodologia normata dalla ISO 11269:2012. I semi utilizzati nel primo test sono stati quelli del crescione (Lepidium sativum L.) come specie dicotiledone, e del sorgo (Sorghum saccharatum M.) come monocotiledone. Il secondo saggio di tossicità eseguito è stato quello descritto dalla normativa in materia UNI 11357, valutando l'eventuale effetto di tossicità alla massima concentrazione delle varie tipologie di biochar, utilizzando come specie dicotiledoni il cetriolo (Cucumis sativus L.) ed il crescione (Lepidium sativum L.), come monocotiledone il sorgo (Sorghum saccharatum M.). Per i biochar da stocchi di mais, rappresentativi di biomasse erbacee e con diverso grado di carbonizzazione, non si osservano effetti apprezzabili alle condizioni di uso agricolo. Nel caso dei biochar da pollina si osservano invece inibizioni alla germinazione sin dalle concentrazioni più basse. In particolare, quello pirolizzato a 400°C mostra un potenziale effetto tossico più marcato, probabilmente associato ad un contenuto di IPA e VFA superiore a quello degli altri biochar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.