984 resultados para Metodo
Resumo:
In questo lavoro di tesi è stata valutata l’influenza della tostatura a diverse condizioni di tempo e temperatura sulle principali caratteristiche qualitative di nocciole polacche (Coryllus avellana L.) di varietà Kataloński. In particolare, le prove di tostatura sono state condotte a due differenti temperature, 130 e 160 °C, ognuna delle quali applicata rispettivamente per tre diversi tempi: 40, 50, 60 e 20, 25, 30 minuti. Al fine di definire le condizioni ottimali di tostatura, i campioni ottenuti sono stati sottoposti ad analisi colorimetrica (L*,a*,b*), dell’attività dell’acqua e del contenuto in acqua (%). Inoltre, per ottenere un quadro completo della qualità delle diverse nocciole tostate, è stato valutato anche il loro contenuto in composti bioattivi per mezzo della determinazione del contenuto in fenoli totali (metodo del Folin-Ciocalteu), dei singoli composti fenolici (HPLC-MS) e dell’attività antiossidante (metodo dell’ABTS·+). In seguito ad estrazione della frazione lipidica, è stato determinato anche il contenuto in tocoferoli (HPLC-FLD) e lo stato ossidativo delle nocciole tostate per mezzo dell’analisi del numero di perossidi. Infine è stato studiato anche l’effetto della tostatura sullo sviluppo di composti volatili (GC-MS), caratteristici dell’aroma tipico delle nocciole tostate. Questo studio rappresenta un importante screening di valutazione delle nocciole tostate a diversi tempi e temperature e mostra come la temperatura sia un parametro molto importante, con una forte influenza sulle caratteristiche compositive e sensoriali del prodotto finito. Sulla varietà Kataloński non sono presenti lavori in letteratura, questo studio quindi rappresenta una novità per quanto riguarda questa specifica varietà. Le numerose analisi svolte, poi, consentono un ampio quadro dei fenomeni che si verificano durante la tostatura.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.
Resumo:
L’industria enologica oggigiorno propone numerosi modi per sigillare le bottiglie in alternativa ai tappi di sughero: tappi sintetici, tappi a vite, tappi a corona. Tuttavia si conosce la preferenza del consumatore medio per il sughero. I motivi sono molteplici: il sughero restituisce un'immagine di qualità del vino, esprime la tradizione ed è un materiale vivo e naturale, così come il vino. La naturalità del sughero però comporta dei rischi. Ad esempio si stima in 10 miliardi di dollari a livello mondiale la perdita economica dovuta al "sentore di tappo" o "cork taint". Recenti ricerche attribuiscono la responsabilità di tale difetto a composti chimici che migrano dal sughero al vino. Innovazione e tradizione si sono incontrate nell'ideazione della "tecnologia a membrana" o "membrane technology". Essa consiste nell'isolare le teste dei tappi con delle pellicole multistrato per non far diffondere nel vino alcun tipo di agente contaminante. In questo studio si espone in dettaglio un metodo per misurare l'adesione di film multistrato polimerici – strato esterno in polietilene – su tappi di sughero monopezzo. I tappi già rivestiti sono stati forniti da un'azienda del settore senza alcuna specifica di fabbricazione. In particolare la fase di trazione è stata ideata in analogia alla prova meccanica nota come pull-off test, usata nell'ambito dell'ingegneria edile. La bontà dell'adesione è indagata dal punto di vista della fisica dei materiali. Per le misurazioni si è utilizzato il Dynamic Mechanical Analyser (DMA), modello Q800, che si trova presso il laboratorio CIRI-MAM ospitato dal Dipartimento di Fisica e Astronomia di Bologna.
Resumo:
Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.
Resumo:
La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013). Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al., era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.
Resumo:
Questa tesi ha come oggetto di studio i problemi riscontrati nelle trascrizioni di testi orali in lingua inglese prodotte da 39 studenti della laurea magistrale in Interpretazione. Nel Capitolo 1 viene presentato l’ascolto, che viene definito prima da un punto di vista storico, poi analizzato come processo composto da quattro fasi, come sostiene Michael Rost (2011). Il capitolo si conclude con l’ascolto nell’ambito dell’interpretazione. Nel Capitolo 2 viene analizzato in maniera contrastiva l’apprendimento dell’ascolto nella prima e nella seconda lingua. I primi due capitoli forniscono le basi per comprendere il caso di studio. Il Capitolo 3 concerne la metodologia dello studio. Vengono presentati il metodo di analisi delle trascrizioni, la categorizzazione dei problemi riscontrati e il processo di creazione del sistema di analisi utilizzato. Nel Capitolo 4 vengono presentati i dati ottenuti seguendo il metodo esposto nel Capitolo 3. Si presentano i problemi riscontrati, che vengono suddivisi in categorie in base a ciò che può averli causati. Il Capitolo 5 è dedicato alle conclusioni. Qui vengono suggerite possibili strategie mirate ad aiutare gli studenti di Interpretazione a migliorare le proprie capacità di ascolto in lingua inglese. Esta tesis quiere analizar los problemas encontrados en transcripciones de textos orales en inglés hechas por 39 estudiantes del máster en Interpretación. En el Capítulo 1 se presenta la escucha, que se define primero desde una perspectiva histórica, y luego como un proceso formado por cuatro fases, como argumenta Michael Rost (2011). El capítulo se cierra con la escucha en el ámbito de la interpretación. En el Capítulo 2 se analizan de forma contrastiva el aprendizaje de la escucha en la primera y segunda lengua. Los primeros dos capítulos constituyen la base para comprender el caso de estudio. El Capítulo 3 atañe a la metodología del estudio. Se presentan el método de análisis de las transcripciones, la categorización de los problemas encontrados y el proceso de creación del sistema de análisis que se ha empleado. En el Capítulo 4 se proporcionan los datos obtenidos gracias al método presentado en el Capítulo 3. Se presentan los problemas encontrados, que han sido divididos en categorías según qué puede haberlos ocasionado. El Capítulo 5 está dedicado a las conclusiones. Aquí se sugieren posibles estrategias cuyo objetivo es ayudar a los estudiantes de Interpretación a mejorar sus capacidades de escucha en inglés.
Resumo:
Il Golfo di Taranto è una baia storica all’interno del Mar Ionio Settentrionale, Mar Mediterraneo Orientale. Sebbene il Mar Mediterraneo rappresenti meno dell’1% della superficie oceanica, presenta un alto livello di diversità biologica e si inserisce tra i primi 25 Biodiversity Hot Spot a livello globale. Esso purtroppo è anche uno dei bacini più antropizzati del mondo; tali pressioni mettono a serio rischio la conservazione di numerose specie, tra cui i Cetacei. Attualmente non sono presenti lavori riportanti dati di abbondanza dei Cetacei nel Golfo di Taranto: la mia ricerca vuole contribuire a colmare questo vuoto conoscitivo ed aggiungere nuove conoscenze sull’abbondanza dei Cetacei nel Mar Mediterraneo. Le aree di studio prese in esame si trovano nel Golfo di Taranto, sono contigue ed hanno la stessa superficie. Utilizzando il metodo del transetto lineare ed il software Distance 6.0 è stato possibile, raccogliere i dati di abbondanza dei delfinidi Stenella coeruleoalba e Truncatus truncatus ed analizzarli, ottenendo delle stime di abbondanza da confrontare con la serie storica disponibile (2009-2014). L’utilizzo del metodo del Distance Sampling, applicato per la prima volta nel Golfo di Taranto, è stato fondamentale perché ha permesso di colmare una lacuna conoscitiva sulla consistenza numerica associata alla nota presenza dei Cetacei nel Mar Ionio Settentrionale. I risultati ottenuti hanno reso possibile il confronto delle stime di abbondanza ottenute nel Golfo di Taranto con quelle del bacino ligure-corso-provenzale del Mediterraneo (Santuario Pelagos). Infatti è stato possibile rilevare che S. coeruleoalba presenta abbondanze generalmente inferiori ed un trend in diminuzione nel Santuario Pelagos, in netto contrasto con le maggiori abbondanze ed il trend in incremento evidenziato nel Golfo di Taranto e sintetizzato in questa tesi. Si evince, quindi la massima urgenza nell’implementare lo studio nel Golfo di Taranto, laddove la presenza di differenti specie di Cetacei e le stime di abbondanza di S. coeruleoalba e T. truncatus evidenziano la necessità di interventi di gestione finalizzati alla conservazione del patrimonio di diversità biologica del Mediterraneo.
Resumo:
Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.
Resumo:
Riassunto Tesi Nella presente dissertazione viene esposto un esperimento condotto con la partecipazione di 13 studenti del Corso Magistrale di Interpretazione di Conferenza della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì al fine di comprendere se la memoria di lavoro possa essere potenziata in seguito ad un periodo di 7 mesi nel quale gli studenti si sono costantemente confrontati con lezioni ed esercizi di memorizzazione, interpretazione simultanea e interpretazione consecutiva. Nel primo capitolo, dopo una breve introduzione agli studi riguardanti la memoria, vengono descritti i diversi tipi di quest'ultima che congiuntamente alla memoria di lavoro, vengono attivati durante l'interpretazione simultanea. Nel secondo capitolo la memoria di lavoro viene messa in relazione con l'interpretazione simultanea. Oltre alle teorie più influenti circa i meccanismi cognitivi e le singole attività che sottendono il processo dell’IS, vengono esposti i principali modelli di elaborazione dell'informazione durante l'attività in questione. In chiusura del secondo capitolo, vengono esposti brevemente altri aspetti cruciali per l'interpretazione simultanea, utili al fine di comprendere le teorie sviluppate e gli studi condotti in merito: attenzione, chunking, soppressione articolatoria e ripetizione subvocalica, accennando inoltre ad un'interessante ricerca condotta per monitorare l'attivazione e il mutamento delle diverse aree cerebrali durante l'utilizzo di una lingua straniera. Nel terzo capitolo vengono passati in rassegna i principali studi empirici condotti sull'interpretazione simultanea per comprendere il comportamento della memoria di lavoro. Infine, nel quarto capitolo viene presentato l'esperimento condotto allo scopo di verificare l'ipotesi alla base della presente tesi: un aumento dell'esperienza in IS può condurre al potenziamento ML. Dopo aver esposto lo scopo, il metodo e il materiale vengono presentati i risultati che, sebbene siano stati raccolti su un campione abbastanza esiguo, vanno a confermare l'ipotesi all'origine della ricerca.
Resumo:
Per il telescopio di neutrini ANTARES, sul quale è basata questa tesi, il principale problema nella ricostruzione delle tracce dei muoni provenienti dal basso, i quali possono essere generati solo da neutrini provenienti dall’emisfero sud che interagiscono nei pressi del rivelatore, è rappresentato dai muoni atmosferici (in particolare dagli sciami muonici). La luce Cherenkov da essi prodotta può essere utilizzata per ricostruire erroneamente tracce dirette verso l’alto (upgoing). Lo scopo di questa tesi è la valutazione, tramite un metodo Montecarlo, della probabilità che i muoni atmosferici vengano ricostruiti come muoni diretti verso l’alto. L’esposizione è organizzata in quattro capitoli: nei primi due vengono descritti la fisica dell’astronomia a neutrini e i principi di funzionamento di un telescopio di neutrini, con particolare attenzione al telescopio ANTARES.Nel terzo capitolo è riportata la descrizione del software utilizzato per simulare lo sciame di muoni atmosferici e la conseguente risposta del rivelatore. Infine, nel quarto capitolo, sono presentati i grafici eseguiti con ROOT che riassumono ed evidenziano i risultati della simulazione.
Resumo:
L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.
Resumo:
Sono stati studiati ed applicati metodi “green” per l’estrazione di poliidrossialcanoati (PHA) da colture microbiche singole (Cupriavidus necator) e miste. Sono stati effettuati esperimenti che prevedono l’utilizzo di surfattanti anionici switchable (SAS) per l’estrazione del polimero, al fine di arrivare ad un protocollo ottimale per l’estrazione di PHB da C.necator che prevede l’uso di NH4 laurato come SAS (100 wt% rispetto al peso dei batteri) per tre ore a 90°C. La sostanza ambifilica agisce distruggendo la membrana cellulare esponendo così i granuli di PHB. Il SAS utilizzato si caratterizza per la possibilità di essere recuperabile tramite aggiunta di CO2 al sistema con una resa del 98%. Per le colture microbiche miste, più refrattarie all’impiego dei surfattanti, sono stati utilizzati dei pre-trattamenti, meccanici e fotocatalitici, al fine di indebolire la membrana batterica. Per il trattamento meccanico sono stati impiegati un omogeneizzatore e un sonicatore ad ultrasuoni; mentre per il trattamento fotocatalitico è stata sperimentata l’azione del nano biossido di titanio (sospensione 1% nano-TiO2) in miscela con i batteri, esposti a radiazioni UV. Dai risultati ottenuti sia il trattamento meccanico che quello fotocatalitico non sono risultati adeguati per i batteri misti. Infine il PHB estratto dalla biomassa batterica è stato purificato con un trattamento fotocatalitico che prevede l’utilizzo di nano-TiO2 1% supportato in tessuti, esposti a luce UV. I risultati di questo post-trattamento mostrano che, anche utilizzando diverse tipologie di tessuto, il PHB viene in parte adsorbito dal tessuto, con la seguente perdita di campione. In conclusione il trattamento del C. necator con i SAS risulta essere un ottimo metodo di estrazione di PHB considerando sia la qualità del polimero estratto sia il riciclo e il riutilizzo del surfattante, mentre per il trattamento delle colture microbiche miste ancora non è stato trovato un protocollo soddisfacente.
Resumo:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
Resumo:
I prodotti fitosanitari sono sostanze attive e preparati, contenenti una o più sostanze attive, destinati a proteggere i vegetali, a favorire e regolare i loro processi vitali, a conservarli, a eliminare le parti non necessarie, a frenare o evitare un loro indesiderato accrescimento, ad eliminare le piante indesiderate. Il prodotto fitosanitario è composto normalmente da tre tipologie di sostanze: sostanza attiva, coadiuvante e coformulante. Le sostanze attive rappresentano la parte del prodotto fitosanitario che serve a combattere l’avversità che si vuole controllare, cioè la sostanza tossica che, a seconda della pericolosità e della concentrazione presente nella formulazione, concorre a determinare la classe di tossicità e quindi di pericolosità del prodotto. Gli stabilimenti che detengono fitosanitari sono suddivisi in depositi e siti produttivi. Secondo la classificazione dell’ISPRA, i depositi di fitosanitari costituiscono una delle 15 categorie di attività a rischio di incidente rilevante, mentre, i siti produttivi rientrano nella categoria degli stabilimenti chimici e/o petrolchimici. Il presente lavoro di tesi ha riguardato la valutazione del rischio di incidente rilevante per i depositi di fitosanitari, con particolare attenzione al rischio associato alla produzione di composti tossici a seguito di scenari incidentali di incendio. È stata in primo luogo effettuata una ricerca approfondita finalizzata a comprendere che cosa sono i prodotti fitosanitari, a quale scopo servono e quali sono i rischi ad essi associati. Successivamente, è stato effettuato un approfondimento delle norme a cui i siti che producono e detengono fitosanitari sono soggetti. È stato quindi effettuato un censimento per individuare quali e quanti sono i depositi e i siti di produzione di prodotti fitosanitari suscettibili di causare incidenti rilevanti in Italia. Si è poi proceduto all’analisi storica sulle banche dati MHIDAS, E-MARS ed ARIA, al fine di individuare gli eventi incidentali che hanno interessato depositi e siti produttivi di fitosanitari. Successivamente, si è analizzato il Regolamento CPR-15, quale metodo raccomandato dal ministero olandese VROM (Ministerie van Volkshuisvesting, Ruimtelijke Ordening en Milieu) per la valutazione del rischio associato a depositi di fitosanitari. Come applicazione della metodologia per la valutazione del rischio descritta dal Regolamento CPR 15, è stata effettuata la modellazione di uno scenario di incendio in un deposito reale di fitosanitari attraverso il Warehouse Model, implementato nel software PHAST 6.54. La simulazione ha portato a definire l’estensione delle aree di danno associate alla dispersione dei fumi tossici prodotti dall’incendio.