77 resultados para Puré
Resumo:
Il Cor-Ten è un acciaio micro-legato, detto anche acciaio patinabile, che garantisce una buona resistenza alla corrosione da agenti atmosferici. Proprio grazie a questa sua peculiare caratteristica sta conoscendo un vasto impiego in particolare nel campo dell’edilizia e delle infrastrutture. La corrosione infatti interessa tutti i settori produttivi e non, provocando ingenti danni economici. Stime effettuate negli ultimi 40anni da diversi enti internazionali indicano che l’entità di questi danni, pur variando da settore a settore, risulta compresa per i paesi industrializzati tra il 3 e il 4% del PIL. Da questi dati si evince la necessità di proteggere i materiali dalla corrosione; in genere per questo scopo si ricorre a trattamenti superficiali o a rivestimenti protettivi. Queste tecniche non rappresentano però l’unica strada, è possibile infatti agire sulla composizione della lega, come nel caso del Cor-Ten, in modo che l’interazione metallo-ambiente porti alla formazione di una patina protettiva di prodotti di corrosione relativamente stabili. La formazione di questo strato, cosiddetto passivante, protegge il metallo da un’ulteriore attacco corrosivo. Scopo di questo lavoro di tesi è studiare il comportamento di questo materiale in ambiente urbano-costiero in tre differenti stati di finitura in cui è commercialmente disponibile: grezzo, pre-patinato e pre-patinato cerato, focalizzando l’attenzione sugli aspetti ambientali legati al suo utilizzo e cercando di valutare in particolare il rilascio dei metalli di lega nell’ambiente, aspetto fino ad ora non considerato in letteratura. I risultati ottenuti indicano che sembrerebbe preferibile l’utilizzo del materiale grezzo rispetto ai pre-patinati, almeno per quanto riguarda il rilascio di metalli in ambiente. Sulla base dei risultati ottenuti è possibile fornire una stima, per i tre stati di finitura di Cor-Ten A considerati, del quantitativo totale (solubile + estraibile) dei metalli rilasciati in ambiente nei sette mesi di esposizione durante la stagione primaverile-estiva della sperimentazione condotta in questo studio. La quantità rilasciata stimata per il Fe oscilla tra i 0,5 g/m2 per i provini light e i 0,7 g/m2 per i provini dark e grezzi, per il Ni il range è compreso tra i 3,6 mg/m2 dei provini grezzi e i 5 mg/m2 per i light, nel caso del Mn il quantitativo varia dai 6,8 mg/m2 per i light ai 10 mg/m2 per i grezzi. Per il Cr la stima per i provini pre-patinati è simile e si attesta intorno a 1,7 mg/m2, risultando minore (anche se in maniera non rilevate) per i grezzi.
Resumo:
L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.
Resumo:
Le più moderne e diffuse applicazioni wireless attuali sono dedicate a sistemi distribuiti in grandi quantità ed il più possibile miniaturizzati. In questa tesi si discute di tecniche di miniaturizzazione delle antenne di questi sistemi. Tradizionalmente tali tecniche si sono basate su substrati ad elevata costante dielettrica che hanno però, come contropartita, un deterioramento delle prestazioni radianti. Un'alternativa molto promettente è offerta da substrati magneto-dielettrici che, pur garantendo analoghe riduzioni degli ingombri, possono offrire migliori opportunità per il comportamento radiante e per l'adattamento dell'antenna al resto del sistema. In questa tesi, partendo dallo stato dell'arte della letteratura scientifica, si è sviluppato un modello che consente di valutare a priori i vantaggi/svantaggi di diverse topologie d'antenne basate su substrati magneto-dielettrici. Il metodo si basa sul teorema di equivalenza. Infine la tesi affronta il problema di sviluppare un metodo per la caratterizzazione dei parametri costitutivi di tali materiali.
Resumo:
In questa tesi ci si propone lo studio dell'anello delle matrici quadrate di ordine n, su un campo, per arrivare a dimostrare che ha solo ideali banali pur non essendo un campo. Allo scopo si introducono le operazioni elementari e il procedimento di traduzione di tali operazioni con opportune moltiplicazioni per matrici dette elementari. Si considera inoltre il gruppo generale lineare arrivando a dimostrare che un particolare sottoinsieme delle matrici elementari è un generatore di tale gruppo.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.
Resumo:
Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.
Resumo:
Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
In questa tesi proponiamo una rivisitazione del classico criterio di Jeans per l'instabilità gravitazionale di una nube di gas autogravitante, tenendo conto anche degli effetti viscosi e della presenza di una forza di Coriolis. Si dimostra che l'aggiunta di tali presenze, pur non alterando la soglia critica di Jeans, è generalmente stabilizzante. Infine si evidenzia un'interessante analogia, per modellamento matematico, tecniche e terminologie, fra il collasso gravitazionale e quello chemiotattico
Resumo:
La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.