354 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Il presente lavoro è stato avviato per caratterizzare dal punto di vista geochimico i siti di alimentazione e di riproduzione del Fenicottero ed ottenere così un dataset relativo alle concentrazioni di metalli nei sedimenti di alcune zone umide, utilizzate da questa specie per alimentarsi e riprodursi e scarsamente studiate in passato. Il lavoro di tesi qui presentato si è articolato in due differenti studi: • Un’indagine dettagliata sulla presenza e distribuzione di metalli ed elementi potenzialmente tossici nei sedimenti provenenti da alcune delle principali aree di alimentazione del Fenicottero nell’Alto Adriatico; • Un’indagine preliminare relativa ai metalli contenuti nei sedimenti provenienti da alcuni siti riproduttivi del Fenicottero nel Mediterraneo occidentale. Per quanto riguarda i siti di alimentazione sono state campionate tre zone umide dell’area deltizia del fiume Po: le Valli di Rosolina, Valle Bertuzzi e le Valli di Comacchio. Riguardo i siti riproduttivi sono state campionate cinque aree umide nel Mediterraneo occidentale: le Paludi dell’Odiel nel sud-ovest della Spagna, la Camargue in Francia, lo Stagno di Cagliari in Sardegna, le Valli di Comacchio in Emilia-Romagna e Valle Dogà in Laguna di Venezia. I 57 campioni raccolti sono stati analizzati mediante analisi XRF ed analisi termiche, presso il Dipartimento di Scienze Biologiche, Geologiche e Ambientali, dell’Università di Bologna, e mediante analisi ICP-MS, presso l’AcmeLabs di Vancouver (Canada). Il complesso deltizio del fiume Po ha registrato concentrazioni anomale di Cd, Pb, Sb e Sn mostrando un generale arricchimento nei sedimenti delle aree umide investigate rispetto al valore di riferimento. Analizzando le correlazioni di questo elemento con le frazioni dei sedimenti, si è evidenziata una buona correlazione con la componente organica del sedimento. Ciò potrebbe indicare la presenza di fenomeni di adsorbimento di questo elemento ad opera della matrice organica. L’area di studio non è apparentemente interessata da importanti attività industriali, che potrebbero in parte spiegare le elevate concentrazioni di Cd, Pb, Sb e Sn. Due potenziali sorgenti antropogeniche di contaminazione sono rappresentate da un’estensiva attività agricola nelle zone limitrofe alle valli considerate e da un elevata pressione venatoria esercitata proprio all’interno di queste zone umide. In particolare, quest’ultima attività umana, potrebbe rappresentare una spiegazione più che plausibile per l’elevata presenza di Pb, messa in evidenza dallo studio, dato che fino ad pochissimi anni venivano utilizzate munizioni al Pb con conseguente rilascio in ambiente di ingenti quantitativi di questo metallo. Il Cu e lo Zn si distribuiscono invece in modo relativamente omogeneo nelle tre zone umide investigate, con un debole arricchimento di questi due elementi nei sedimenti delle Valli di Rosolina. Per quanto riguarda l’As, la sua distribuzione nell’area di studio, confrontata con i valori di background, non sembra sollevare particolare preoccupazione, cosi come la presenza di Hg in tutti e tre i siti investigati. Le Valli di Comacchio e Valle Bertuzzi sono inoltre caratterizzate da concentrazioni elevate di Cr e Ni, dati che confermano il naturale arricchimento di questi due elementi nell’area di studio evidenziato da un ampia letteratura e riconducibile ad apporti litologici provenienti dai depositi ofiolitici delle Alpi occidentali trasportati dal fiume Po verso l’Adriatico. Tuttavia, in alcuni campioni la concentrazione di Cr è molto superiore a quella caratteristica delle ofioliti di origine alpina, soprattutto per Valle Bertuzzi. Per spiegare queste anomalie sono necessarie indagini più approfondite sulla presenza e distribuzione di Cr nell’area di Comacchio e Bertuzzi. Riguardo ai 5 siti riproduttivi del Fenicottero, la colonia di Odiel (Spagna) si distingue per essere il sito maggiormente contaminato tra quelli investigati. Si sono infatti riscontrate elevate concentrazioni di As, Cu, Hg, Pb, Sb, Sn e Zn, se confrontate con quelle degli altri siti campionati. Questo risultato non sorprende. Il sito è infatti riconosciuto in letteratura come uno dei sistemi estuarini più inquinati dell’Europa occidentale, in quanto interessato dall’attività mineraria della IPB (Iberian Pyrite Belt), uno dei più importanti siti minerari mondiali, e dall’attività del polo industriale di Huelva. La colonia francese della Camargue si distingue invece per essere il sito meno impattato dall’attività antropica, non mostrando concentrazioni anomale per nessuno degli elementi in traccia analizzati. I sito riproduttivo situato nei pressi di Cagliari, in Sardegna, ha riportato elevate concentrazioni di Cd, Hg e Pb. La contaminazione di questo sito a seguito di ingenti scarichi di rifiuti industriali contenenti Hg e Pb a partire dagli anni ’60 è ben documentata in letteratura. Sebbene negli anni ’90 siano stati realizzati progetti di bonifica del sito, le concentrazioni ottenute nel presente studio sono ancora elevate suggerendo la possibilità che il processo di rimozione di Hg e Pb messo in atto in passato possa aver avuto scarsa efficacia. La colonia riproduttiva di Comacchio ha registrato concentrazioni elevate di Cr, Ni e Pb. Come già detto riguardo ai siti di alimentazione l’abbondanza di Cr e Ni nell’area è da ricondurre a fattori naturali, mentre le elevate concentrazioni di Pb non trovano riscontri in precedenti studi. La presenza di alcuni campioni con concentrazioni anomale di Cr e il generale arricchimento di Pb nel sito suggeriscono la necessità di studi più approfonditi e specifici sulla presenza di questi elementi nell’area di Comacchio. Infine, la colonia situata in Laguna di Venezia si caratterizza per avere concentrazioni relativamente elevate di Cd e Hg riconducibili all’attività del polo industriale di Porto Marghera, come già evidenziato da numerosi studi. Tuttavia, i dati del presente studio non confermano le concentrazioni anomale di Zn messe in evidenza da molti studi effettuati nell’intera laguna veneta. Ciò può trovare una spiegazione nel fatto che il sito indagato in questo studio corrisponde ad un piccola porzione dell’intera laguna, molto raramente investigato negli studi passati. Mediante il presente studio è stato quindi possibile implementare le scarse conoscenze geochimiche relative ai sedimenti di alcune zone umide frequentate dai fenicotteri nell’Alto Adriatico e, al contempo, mettere in luce alcune importanti criticità, in particolar modo riguardo Cd, Cr, Pb, Sb e Sn, la cui presenza e distribuzione nell’area dovrebbero essere ulteriormente investigate da studi futuri.
Resumo:
L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.
Resumo:
La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.
Resumo:
Il forte incremento della popolazione mondiale, la continua crescita del tenore di vita e del livello di consumi hanno portato negli ultimi decenni ad un enorme aumento della richiesta mondiale di energia. Diviene pertanto fondamentale ricercare nuovi metodi altamente efficienti di produzione, trasporto ed utilizzo di energia, che migliorino la qualità della vita dell’uomo e nello stesso tempo salvaguardino il clima e l’ambiente. Proprio a questo proposito, in questi ultimi anni, vi è un crescente interesse nei riguardi della molecola di idrogeno, H2. Ad oggi è impossibile sostituire i combustibili fossili con l’idrogeno, per motivi prettamente tecnologici (difficoltà nello stoccaggio e nel trasporto) e per motivi legati alla sua produzione. Infatti, l’idrogeno è sì uno degli elementi più presenti in natura, ma non come sostanza gassosa pura bensì in forma combinata, generalmente acqua, quindi per produrlo è necessario rompere il legame con l’elemento con cui è combinato, consumando energia; questo spiega il motivo per cui l’idrogeno viene considerato un vettore di energia e non una fonte di energia. La produzione di idrogeno, o meglio del suo equivalente costituito da un flusso di elettroni e protoni, dall’acqua è un processo che avviene in natura, precisamente nelle cellule vegetali durante la prima fase della fotosintesi clorofilliana. Tale processo mostra l’importanza dei complessi bio-inorganici che vi partecipano, ai quali si ispira la ricerca di nuovi efficienti catalizzatori per la produzione di idrogeno mediante scissione catalitica dell’acqua (water splitting). Una classe di enzimi particolarmente studiata, in quest’ambito, è costituita dalle idrogenasi; la maggior parte di questi enzimi contengono un frame dinucleare Ni-Fe o Fe-Fe. Numerosi gruppi di ricerca sono fortemente impegnati nell’obiettivo di sintetizzare complessi simili a questi enzimi (enzyme mimics), e con prestazioni paragonabili, in modo da produrre idrogeno in modo efficiente e rispettando i principi di sostenibilità ambientale ed economica. Il gruppo di ricerca presso il quale è stato svolto il tirocinio oggetto del presente elaborato si occupa dello studio di complessi metallorganici caratterizzati dalla presenza di un “core” metallico costituito da due atomi di Ferro adiacenti coordinati tra loro mediante leganti a ponte diversamente funzionalizzati. Obiettivo del tirocinio è stato quello di verificare l’efficienza catalitica di alcuni di questi complessi nel promuovere il processo di interconversione H+/H2; per fare ciò, si è fatto ricorso ad un approccio elettrochimico, sfruttando la tecnica della voltammetria ciclica.
Resumo:
Questa tesi si prefigge lo scopo di dimostrare il teorema di Igusa. Inizia introducendo algebricamente i numeri p-adici e ne dà una rappresentazione grafica. Sviluppa poi un integrale definito dalla misura di Haar, invariante per traslazione e computa alcuni esempi. Utilizza il blow up come strumento per la risoluzione di alcuni integrali ed enuncia un'applicazione del teorema di Hironaka sulla risolubilità delle singolarità. Infine usa questi risultati per dimostrare il teorema di Igusa.
Resumo:
Il silicio, materiale di base per la realizzazione di gran parte dei dispositivi microelettronici, non trova largo impiego in fotonica principalmente a causa delle sue proprietà elettromagnetiche: oltre ad un band-gap indiretto, il silicio presenta difatti una elevata simmetria reticolare che non permette la presenza di alcuni effetti, come quello elettro-ottico, che sono invece utilmente sfruttati in altri materiali per la fotonica. E’ stato recentemente dimostrato che la deformazione indotta dalla deposizione di film ad alto stress intrinseco potrebbe indurre alcuni di questi effetti, rompendo le simmetrie della struttura. In questo lavoro di tesi viene studiata, mediante simulazioni, microfabbricazione di dispositivi, e caratterizzazione sperimentale, la deformazione reticolare indotta su strutture di tipo ridge micrometriche in silicio mediante deposizione di un film di Si3N4. La deformazione e’ stata analizzata tramite simulazione, utilizzando il metodo agli elementi finiti ed analisi di strain tramite la tecnica di microscopia ottica a trasmissione Convergent-Beam Electron Diffraction. Questa tecnica permette di ottenere delle mappe 2D di strain con risoluzione spaziale micrometrica e sensibilita’ dell’ordine di 100microstrain. Il confronto fra le simulazioni e le misure ha messo in evidenza un accordo quantitativo fra le due analisi, da una parte confermando la validità del modello numerico utilizzato e dall’altro verificando l’accuratezza della tecnica di misura, impiegata innovativamente su strutture di questo tipo. Si sono inoltre stimate le grandezze ottiche: birifrangenza e variazione dell’indice di rifrazione efficace rispetto al caso deformato.di una guida SOI su cui e’ deposto uno strato di nituro. I valori stimati, per uno spessore di 350 nm sono rispettivamente di 0.014 e -0.00475. Questi valori lasciano credere che la tecnologia sia promettente, e che un’evoluzione nei processi di fabbricazione in grado migliorare il controllo delle deformazione potrebbe aprire la strada ad un utilizzo del silicio deformato nella realizzazione di dispositivi ottici ed elettro-ottici.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
Quando si parla di olio extravergine di oliva ci si riferisce ad un prodotto caratterizzato da anni di storia, tradizioni e valori simbolici; è inoltre rinomato per le sue caratteristiche peculiari, anche di tipo sensoriale. Esso è definito come un prodotto "ottenuto unicamente mediante procedimenti meccanici" e non è ammesso nessun altro trattamento o successiva correzione. Lo scopo di questo lavoro di tesi è indagare le abitudini ed i gusti dei consumatori e guidarli verso scelte più consapevoli, attraverso attività divulgative e mediante l’educazione all’assaggio, la cognizione ed il senso più corretto del gusto applicati ad un prodotto vergine di altissimo valore merceologico oltre che nutrizionale. Per questa finalità, è stato realizzato un test di accettabilità su 125 soggetti, chiamati a rispondere ad una serie di domande riguardanti il gradimento e la percezione di alcuni attributi sensoriali per quattro diversi oli commercializzati come extravergini di oliva e selezionati con l’intento di rappresentare il più possibile i diversi livelli di qualità del prodotto presenti sul mercato. In questo lavoro viene messa in luce la necessità di riavvicinare e conquistare il consumatore interessato agli aspetti salutistici del prodotto ma che non dispone, per mancanza di informazioni, delle competenze e degli strumenti necessari per riconoscere un olio extravergine di qualità e capire cosa, in esso, effettivamente costituisce un valore aggiunto. I risultati ottenuti dall'indagine condotta dal Dipartimento di Scienze e Tecnologie Agro-Alimentari su 125 consumatori romagnoli, oggetto di questo elaborato, hanno permesso di capire meglio le abitudini, i gusti, le aspettative dei soggetti intervistati e di verificare la loro capacità di distinguere in maniera agevole la qualità di un prodotto tanto complesso quale l’olio extravergine di oliva. Gli oli proposti durante il test affettivo di tipo edonico, erano di differente qualità e con caratteristiche diverse in termini di attributi sensoriali, di prezzo e di origine geografica. Questo studio conferma l'esigenza di indirizzare la comunicazione in modo più mirato verso i consumatori finali, migliorando la leggibilità dell’offerta con etichette più chiare e promuovendo oltre alle caratteristiche salutistiche del prodotto, anche quelle sensoriali. Un consumatore informato, competente e capace di riconoscere la qualità rappresenta la migliore garanzia per i produttori di essere premiati per il proprio impegno.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Il lavoro di tesi esamina i plausibili sistemi progenitori per le supernovae di tipo di Ia e analizza i principali modelli di esplosione studiati ed implementati dai gruppi di ricerca per le SNe Ia.
Resumo:
Nella mia sperimentazione si è determinato le concentrazioni di ammine biogene ed etilcarbammato di vini autoctoni siciliani prodotti a partire da vitigni Catarratto, Grillo ed Insolia provenienti da 4 cantine siciliane e detrrminato il profilo in molecole volatili di questi vini mediante la tecnica GS/MS-SPME e il naso elettronico. Per quanto concerne le ammine biogene, l’ammina rilevata in maggiore quantità è stata la putrescina, mentre la 2-feniletilammina e le poliammine sono state rilevate a bassissime concentrazioni. L’istamina era al di sotto del limite di determinazione (0,1 ppm) nei vini della cantina D e nei vini Grillo e Catarratto della cantina C. La tiramina è stata rilevata solo in 7 dei vini analizzati a concentrazioni mai eccedenti 1,31ppm. I vini della cantina B, pur presentando in 2 campioni delle elevate concentrazioni di putrescina, erano privi di poliammine e tiramina. Per quanto riguarda l’etilcarbammato, esso è risultato sempre al di sotto dei 15ppb, indipendentemente dal vitigno e dalla cantina di produzione, con l’eccezione dei campioni di Catarratto della cantina D. Il vino Grillo proveniente dalla stessa cantina presentava i più bassi valori di etilcarbammato determinato tra i campioni analizzati.Per il profilo in molecole volatili rilevate mediante GC/MS-SPME sono state identificate circa 20 molecole appartenenti a classi chimiche differenti quali esteri, alcoli, acidi ed aldeidi.Al fine di evidenziare meglio le differenze tra i diversi campioni di vino, è stata effettuata un’analisi PCA. La proiezione dei diversi campioni sul piano cartesiano definito dalle componenti 1 e 2 era in grado di spiegare, rispettivamente, il 46,44% e il 17,52% della varianza. I diversi campioni sono stati raggruppati principalmente per cantina e non in rapporto al vitigno. Infatti, sono stati individuati 4 cluster corrispondenti alle 4 cantine di produzione. Dal momento che il profilo sensoriale di un vino è la risultante, oltre che di un complesso equilibrio quali-quantitativo di numerose molecole, anche delle interazioni che si vengono a creare tra le molecole volatili e non in un sistema complesso come il vino, è stata effettuata un’analisi mediante naso elettronico. Come precedentemente, i risultati ottenuti sono stati analizzati mediante l’analisi della componente principale che è stata in grado di spiegare più del 80% della varianza totale. Anche in questo caso, i campioni tendevano a raggrupparsi per cantina e non per vitigno. Dall’analisi critica dei dati si evince come il processo produttivo adottato abbia influito in maniera più significativa rispetto al vitigno sulla differenziazione dei profili in molecole volatili determinati sia mediante gascromatografia che naso elettronico. In conclusione, i risultati della mia sperimentazione hanno evidenziato: marcate differenze in termini di profili in molecole volatili tra i vini analizzati solo in rapporto al processo produttivo adottato dalle cantine, sebbene la zona di produzione della materia prima sia piuttosto ristretta; ottima qualità dei prodotti considerati in termini di molecole potenzialmente tossiche per la salute del consumatore.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.