566 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dialisi è una terapia essenziale alla sopravvivenza delle persone colpite da insufficienza renale. Senza questo trattamento periodico l’aspettativa di vita si riduce a pochi giorni. Il fine di questo trattamento è il ripristino dell’equilibrio idro-elettrolitico e acido-base del paziente e la rimozione del fluido in eccesso che l’organismo non è in grado di espellere autonomamente. La parte di liquido che passa attraverso il filtro dal lato sangue, alla parte di bagno dialisi prende il nome di ultrafiltrato. Ciò comporta che nelle macchine per emodialisi ci sia un sistema di controllo dedicato all’ultrafiltrazione. La durata della seduta è variabile, è finalizzata a riportare il paziente al peso ottimale in un tempo limitato. Il seguente elaborato è stato svolto presso il laboratorio della start-up IBD Italian Biomedical Devices, uno dei progetti in via di sviluppo è la realizzazione di una macchina per emodialisi a basso costo. Obiettivo della tesi è stato quello di confrontare due misuratori di portata e valutarne l’adeguatezza per la gestione del sistema di ultrafiltrazione. È stato esplorato tutto il range di portate a cui potrebbero essere sottoposti durante l’utilizzo del macchinario. I sensori oggetto di studio sono l’Oval Gears Flowmeters ed il flussimetro Series 800, entrambi adatti all’impiego in ambito biomedicale. Appartengono a due diverse classi: il primo è un contatore volumetrico, registra il numero di volumi base lo che attraversano. Il secondo è un misuratore a turbina, genera impulsi verso l’esterno in numero proporzionale alla velocità del fluido. Lo studio necessita anche di una parte di acquisizione dei segnali provenienti dai sensori, è stata implementata interamente sulla piattaforma Arduino. I dati acquisiti sono stati elaborati ed analizzati al fine di avere un confronto tra i misuratori e con il gold-standard. Per poter confrontare le prestazioni è stato realizzato e seguito un protocollo sperimentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

UNHRD è un Network di Basi Operative di Pronto Intervento Umanitario delle Nazioni Unite, con sei sedi nel mondo, in grado di inviare aiuti di prima necessità in qualsiasi parte del mondo entro 24-48 ore. Creata nel 2000, quella di Brindisi è la prima base del Network. Nel 2014, all’interno di UNHRD di Brindisi, nasce una nuova unità di ricerca e sviluppo, chiamata UNHRD LAB, per revisionare, testare e sviluppare prodotti innovativi contribuendo al miglioramento delle risposte alle emergenze umanitarie. Il LAB, gestito da esperti del campo, lavora in collaborazione con centri di ricerca, fornitori, Organizzazioni Non Governative, Agenzie Governative e con l’Università di Bologna, grazie alla quale ho avuto la possibilità di trascorrere sei mesi all’interno di questa nuova unità. Lavorando in stretta collaborazione con Nicolas Messmer, esperto del campo e responsabile del LAB, ho appurato che la progettazione di un campo umanitario al giorno d’oggi non segue metodi standardizzati, ma si basa sul buon senso di tecnici esperti che stimano numero e tipologie di container da inviare per allestirlo, sulla base dei quali si definiscono i fabbisogni energetici da soddisfare. Al fine di migliorare e velocizzare l’allestimento di un campo umanitario, ho deciso di proporre la creazione di tre standard di campo: piccolo, medio e grande (in funzione del numero degli operatori destinati ad accogliere) definire tipologia e numero di prodotti da inviare nei tre casi, individuare il fabbisogno energetico e ottimizzarlo proponendo soluzioni a basso consumo. Uno dei focus del LAB è infatti la “green techonolgy”, ovvero la ricerca di soluzioni a basso impatto ambientale, da qui i miei studi verso l’efficientamento energetico e l’attenzione verso nuove tecnologie ecofriendly come il fotovoltaico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I lantibiotici sono molecole peptidiche prodotte da un gran numero di batteri Gram-positivi, posseggono attività antibatterica contro un ampio spettro di germi, e rappresentano una potenziale soluzione alla crescente problematica dei patogeni multi-resistenti. La loro attività consiste nel legame alla membrana del bersaglio, che viene quindi destabilizzata mediante l’induzione di pori che determinano la morte del patogeno. Tipicamente i lantibiotici sono formati da un “leader-peptide” e da un “core-peptide”. Il primo è necessario per il riconoscimento della molecola da parte di enzimi che effettuano modifiche post-traduzionali del secondo - che sarà la regione con attività battericida una volta scissa dal “leader-peptide”. Le modifiche post-traduzionali anticipate determinano il contenuto di amminoacidi lantionina (Lan) e metil-lantionina (MeLan), caratterizzati dalla presenza di ponti-tioetere che conferiscono maggior resistenza contro le proteasi, e permettono di aggirare la principale limitazione all’uso dei peptidi in ambito terapeutico. La nisina è il lantibiotico più studiato e caratterizzato, prodotto dal batterio L. lactis che è stato utilizzato per oltre venti anni nell’industria alimentare. La nisina è un peptide lungo 34 amminoacidi, che contiene anelli di lantionina e metil-lantionina, introdotti dall’azione degli enzimi nisB e nisC, mentre il taglio del “leader-peptide” è svolto dall’enzima nisP. Questo elaborato affronta l’ingegnerizzazione della sintesi e della modifica di lantibiotici nel batterio E.coli. In particolare si affronta l’implementazione dell’espressione eterologa in E.coli del lantibiotico cinnamicina, prodotto in natura dal batterio Streptomyces cinnamoneus. Questo particolare lantibiotico, lungo diciannove amminoacidi dopo il taglio del leader, subisce modifiche da parte dell’enzima CinM, responsabile dell’introduzione degli aminoacidi Lan e MeLan, dell’enzima CinX responsabile dell’idrossilazione dell’acido aspartico (Asp), e infine dell’enzima cinorf7 deputato all’introduzione del ponte di lisinoalanina (Lal). Una volta confermata l’attività della cinnamicina e di conseguenza quella dell’enzima CinM, si è deciso di tentare la modifica della nisina da parte di CinM. A tal proposito è stato necessario progettare un gene sintetico che codifica nisina con un leader chimerico, formato cioè dalla fusione del leader della cinnamicina e del leader della nisina. Il prodotto finale, dopo il taglio del leader da parte di nisP, è una nisina completamente modificata. Questo risultato ne permette però la modifica utilizzando un solo enzima invece di due, riducendo il carico metabolico sul batterio che la produce, e inoltre apre la strada all’utilizzo di CinM per la modifica di altri lantibiotici seguendo lo stesso approccio, nonché all’introduzione del ponte di lisinoalanina, in quanto l’enzima cinorf7 necessita della presenza di CinM per svolgere la sua funzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della tesi è fornire nozioni di teoria della misura tramite cui è possibile l'analisi e la descrizione degli insiemi frattali. A tal fine vengono definite la Misura e la Dimensione di Hausdorff, strumenti matematici che permettono di "misurare" tali oggetti particolari, per i quali la classica Misura di Lebesgue non risulta sufficientemente precisa. Viene introdotto, inoltre, il carattere di autosimilarità, comune a molti di questi insiemi, e sono forniti alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, l'insieme di Mandelbrot e il triangolo di Sierpinski. Infine, viene verificata l'ipotesi dell'esistenza di componenti di natura frattale in serie storiche di indici borsistici e di titoli finanziari (Ipotesi dei Mercati Frattali, Peters, 1990).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il grafene è un cristallo bidimensionale composto da uno strato monoatomico planare di atomi di carbonio ibridizzati sp2. In ogni modo, il perfezionamento delle tecniche di produzione e di trasferimento del materiale è a tutt’oggi una attività di ricerca alla frontiera, e in questo contesto si è inserito il mio lavoro di tesi. Svolto nella sede di Bologna dell’Istituto per la Microelettronica ed i Microsistemi del Consiglio Nazionale delle Ricerche (IMM-CNR), ha avuto un duplice obiettivo. Il primo è stato quello di studiare la procedura di trasferimento su un wafer di ossido di silicio (SiO2) del grafene cresciuto per deposizione chimica da fase vapore (chemical vapor deposition) su rame normalmente impiegata in laboratorio. Il secondo è stato invece quello di proporre e verificare possibili modifiche con lo scopo di provare a risolvere uno dei problemi che ci si è trovati ad affrontare, nello specifico l’elevato numero di danni strutturali e di rotture indotti nella membrana trasferita. Dopo un capitolo iniziale di introduzione alla teoria ed alle proprietà fisiche del grafene, nel secondo verranno illustrate le tecniche principali con le quali attualmente si produce il materiale, con un focus particolare sulla chemical vapor deposition, tecnica impiegata all’IMM, e da me seguita per la produzione dei campioni da studiare. Il terzo capitolo tratterà nel dettaglio il processo di trasferimento dal substrato di crescita a quello finale, realizzato attraverso uno strato sacrificale di PMMA. Dopo una descrizione approfondita dei singoli passaggi, verrà mostrato il confronto tra i risultati ottenuti su campioni di grafene traferiti su ossido di silicio, con la tecnica inizialmente adottata e quella modificata. Come verrà discusso, nonostante non tutti problemi siano stati risolti, le modifiche apportante al processo di trasferimento hanno permesso di raggiungere l’obiettivo iniziale, cioè di migliorare in modo apprezzabile la qualità della pellicola dal punto di vista dell’integrità strutturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è volto a far conoscere l'opera dello scrittore H. Krausser "Einsamkeit und Sex und Mitleid" e il genere Pulp. Ho voluto approfondire alcune caratteristiche di questo genere perché è ancora poco conosciuto, dato che questa corrente letteraria è nata soltanto negli anni Novanta. Nella prima parte dell'elaborato ho inserito una breve presentazione del genere per spiegare l'origine del termine pulp e descrivere le caratteristiche principali che lo definiscono. In modo particolare mi sono concentrato sulla sua diffusione in Italia attraverso la corrente dei cannibali, indicandone i principali esponenti. Successivamente ho presentato l'autore Helmut Krausser che, attraverso un accurato lavoro letterario, è stato in grado di mettere insieme un mosaico di personaggi sparsi per la metropoli di Berlino. Julia König è una donna ambiziosa ed esigente, Vincent è un gigolò rinomato, Ekki un ex professore ridotto alla miseria, Swentja una giovane ragazza contesa tra due giovani e incapace di badare a sua sorella. Questi sono solo alcuni dei personaggi presenti nell'opera. Questo libro risultava interessante sul piano traduttivo poiché gli spunti da analizzare erano molteplici e, a mio avviso, intriganti. Visto l'ampio numero di personaggi, l'opera di H. Krausser è incentrata sul dialogo. Si tratta di una tipologia testuale che all'apparenza potrebbe sembrare semplice e lineare, ma in realtà può rivelarsi insidiosa per la traduzione. Infatti, non è semplice restituire la stessa spontaneità del testo di partenza e trasmettere in maniera fedele il registro tipico dell'oralità. Ho ritenuto opportuno analizzare questo genere letterario per le peculiarità che lo contraddistinguono dagli altri. Con i suoi toni crudi, violenti e talvolta anche cinici il pulp offre immagini di realtà drammatiche che producono un forte impatto emotivo sul lettore grazie a uno stile diretto, privo dei filtri della moralità e del pudore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le materie plastiche sono materiali polimerici che possono contenere altre sostanze finalizzate a migliorarne le proprietà o ridurre i costi (IUPAC). Accanto agli innumerevoli vantaggi apportati dall’utilizzo della plastica, negli anni sono emersi aspetti negativi relativi all’inquinamento ambientale causato dalla dispersione del materiale plastico nei rifiuti urbani e conseguentemente nelle discariche. La diffusione e l’utilizzo della bioplastica si pone come obiettivo minimizzare la dipendenza dal petrolio in previsione della diminuzione del numero di giacimenti e quindi della sua disponibilità. Lo scopo del presente lavoro di sperimentazione è lo studio del processo di dowstream di PHA prodotti in laboratorio partendo dalla verifica dei risultati riportati in letteratura e puntando poi ad un miglioramento di un processo convenzionale attraverso la ricerca di nuove alternative.