910 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Con il presente lavoro si intende portare a termine una ricerca terminologica in italiano e tedesco nell'ambito degli Organismi Geneticamente Modificati. L'obiettivo finale della tesi è inoltre la realizzazione di un database terminologico bilingue, pensato per facilitare il lavoro di traduttori non necessariamente specializzati in tale ambito. L'idea della tesi nasce da uno stage svolto presso la Direzione Generale della Traduzione (DGT) di Lussemburgo, incentrato sulla revisione e l'aggiornamento di una parte della banca dati terminologica dell’Unione Europea (IATE) legata al dominio degli OGM. L'esperienza di tirocinio, in particolare, verrà descritta nella prima parte del lavoro, il quale si articolerà poi in altri 4 punti fondamentali. Nel secondo capitolo si effettuerà una panoramica generale sugli OGM, tematica di grande attualità che riscontra un ampio interesse anche tra la popolazione. Nel terzo capitolo si tratterà l'argomento delle lingue speciali e della terminologia da un punto di vista generale, per poi evidenziare più nel dettaglio le caratteristiche della lingua del dominio di indagine. Nel quarto capitolo, dopo una breve introduzione relativa alla linguistica dei corpora, si effettuerà una descrizione dettagliata delle varie fasi del lavoro terminologico, in cui sono comprese la creazione dei corpora, l'estrazione della terminologia e la realizzazione dei sistemi concettuali. Il quinto capitolo, infine, sarà incentrato sul database terminologico italiano-tedesco, il quale verrà riportato integralmente alla fine della tesi.
Resumo:
La realizzazione di cinque sezioni stratigrafiche nel territorio padano, orientate SSW-NNE e con profondità di circa 200 m, ha consentito lo studio della successione sedimentaria tardo-quaternaria della Pianura Padana centrale e dei suoi acquiferi, in particolare quelli più superficiali. La ricostruzione, ottenuta utilizzando le stratigrafie di pozzi per acqua fornite dall’archivio del Servizio Geologico, Sismico e dei Suoli di Regione Emilia-romagna, ha permesso di evidenziare una ciclicità deposizionale del 4° ordine, controllata da fattori glacio-eustatici. Grazie al riconoscimento di cicli trasgressivo-regressivi sono stati individuati cinque subsintemi corrispondenti ad altrettanti complessi acquiferi. La ricostruzione di pattern ciclici all’interno del Bacino Padano ha permesso la ricostruzione geometrica dei corpi sedimentari di channel-belt del Fiume Po, spessi corpi sabbiosi confinati da materiale impermeabile in cui sono contenute le falde acquifere. Alle informazioni stratigrafiche e litologiche si è unito lo studio delle caratteristiche idrochimiche ed isotopiche degli acquiferi, in modo tale da ottenere una chiave di lettura integrata dei depositi padani. Basandosi sulle diverse caratteristiche isotopiche delle acque è possibile risalire alla provenienza delle acque negli acquiferi. In questo modo si ottengono informazioni circa le modalità di ricarica dell'acquifero e la sorgente della ricarica. Un'applicazione secondaria di questo metodo è la verifica della vulnerabilità degli acquiferi padani. Lo studio delle facies idrochimiche è stato sovrapposto a quello dei valori isotopici delle acque, con l'obiettivo di definire una correlazione tra i due fattori chimici all’interno degli acquiferi. L'obiettivo di questa correlazione è quello di identificare la provenienza di un'acqua di ricarica senza la necessità di dati di natura isotopica.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
La Bioacustica marina studia gli aspetti “acustici” riguardanti gli animali marini tra cui le capacità uditive, la produzione del suono e la comunicazione attraverso i suoni. Ad oggi, un crescente livello di suoni introdotti negli oceani dalle attività umane sta causando una serie di effetti sull’ecosistema marino ed in particolare su specie che svolgono molteplici funzioni attraverso l’impiego attivo e passivo dei suoni, primi fra tutti i mammiferi marini. Il monitoraggio acustico passivo è uno dei metodi principali e popolari usati per aiutare gli scienziati a indagare e capire i modelli comportamentali degli animali marini. L'area di studio d’interesse si trova nel Canale di Sicilia, nel tratto di mare antistante Capo Granitola (Sicilia sud-occidentale), dove troviamo tra le specie più abbondanti di mammiferi marini: il tursiope, la stenella e il delfino comune. Questo tratto di mare è monitorato acusticamente dal 2012 dal laboratorio di bioacustica dell’IAMC-CNR attraverso un sistema di registrazione subacqueo autonomo. Il lavoro di tesi ha avuto l’obiettivo di analizzare 9 mesi di registrazioni al fine di studiare la presenza di delfinidi. Gli obiettivi specifici di questa tesi sono stati: •La verifica di interazioni tra delfini e attività antropiche attraverso l’analisi della presenza contemporanea di rumori prodotti da imbarcazioni e disegnali sonori prodotti da delfinidi; •Studiare gli andamenti circadiani e stagionali dei vocalizzi dei delfinidi e eventuali variazioni nei principali parametri acustici che caratterizzano i segnali di ecolocalizzazione. Grazie all’analisi dei dati acustici si sono ottenute informazioni sugli andamenti temporali della presenza/vocalizzazioni di delfinidi e sulla possibile interazione con le barche da pesca.
Resumo:
L’elaborato approfondisce il tema della traduzione in simboli. Questo particolare tipo di traduzione è pensato per chi è affetto da disabilità comunicative e presenta difficoltà nella comprensione e nell’espressione, sia a livello orale che scritto. Ad oggi, i libri tradotti in simboli sono per lo più rivolti a bambini e fanno parte degli strumenti della Comunicazione Aumentativa Alternativa, o CAA, un ambito di ricerca che ha lo scopo di individuare metodi di comunicazione “aumentativi”, ossia che accrescono le capacità comunicative di persone con disabilità. Questa comunicazione è definita, altresì, “alternativa” poiché individua modalità diverse dalla parola come, appunto, simboli, immagini e tecnologie dedicate. La CAA nasce per garantire uno dei diritti umani fondamentali, sanciti anche dall’ONU, cioè il diritto alla comunicazione. L’elaborato fornisce, innanzitutto, una panoramica generale sulla disabilità comunicativa, sulla Comunicazione Aumentativa Alternativa, e sugli strumenti utilizzati in questo contesto, soffermandosi in particolare sui sistemi simbolici. In seguito, descrive dettagliatamente i libri in simboli, spiegandone obiettivi e caratteristiche, e facendo riferimento ai concetti di linguaggio, lingua, oralità e scrittura e acquisizione del linguaggio. Infine, vengono analizzati i metodi attualmente esistenti per la traduzione in simboli di libri per bambini, e viene illustrato un esempio concreto. L’ultima parte dell’elaborato si sofferma sugli aspetti in comune tra la traduzione in simboli e la traduzione tra lingue naturali, e sui metodi di quest’ultima che possono essere utili per migliorare la qualità del testo in simboli. In particolare, si farà riferimento agli strumenti di traduzione assistita e di traduzione automatica attualmente esistenti per la traduzione in simboli e verranno dati suggerimenti pratici per renderli più efficaci, rifacendosi anche alla traduzione automatica e assistita tra lingue naturali, con particolare riferimento alle tecniche di pre-editing, post-editing e scrittura controllata.
Resumo:
Il presente lavoro si prefigge l’obiettivo di dimostrare che, per essere considerata completa, la formazione di un interprete deve comprendere, oltre all’insegnamento delle competenze traduttive e linguistiche, anche un percorso volto a migliorare le abilità comunicative degli studenti attraverso l’apprendimento delle tecniche di presentazione orale. Si è deciso di prestare particolare attenzione all’interpretazione consecutiva vista la sua dimensione di azione in pubblico. La presenza fisica di un interprete di consecutiva fa sì che la comunicazione avvenga su due piani paralleli: quello verbale e quello non-verbale. Per questo, un interprete professionista, e quindi uno studente, deve imparare a trasferire il contenuto del messaggio in modo fedele e corretto, sul piano linguistico, ma deve anche imparare ad esprimersi con chiarezza, con una voce ben impostata e ben modulata, con una adeguata velocità di eloquio, prestando attenzione alla dizione, alla fonetica, al contatto visivo con il pubblico, alle espressioni del viso, alla postura e alla gestualità. Per dimostrare l’importanza delle tecniche di presentazione orale nella formazione degli interpreti, si è deciso di iniziare stabilendo i presupposti teorici della professione e descrivendo il lavoro e il ruolo dell’interprete all’interno dell’evento comunicativo della conferenza (capitolo I). Nel capitolo II si è quindi definito il gesto, descrivendo le teorie sulla sua origine cognitiva e funzionale, trattando la letteratura sulle classificazioni delle tipologie gestuali e illustrando uno studio sulle variazioni geografiche dei gesti e uno sulla possibile creazione di un dizionario dei gesti italiani. Infine, il capitolo terzo è stato dedicato alla descrizione delle tecniche e degli aspetti legati alla presentazione orale e il capitolo quarto all’applicazione pratica dei consigli illustrati, attraverso l’uso di materiale di supporto di conferenze interpretate e videoregistrate.
Resumo:
Il presente elaborato si propone come obiettivo di analizzare una situazione specifica di interpretazione volontaria da parte di non-professionisti. L’ong Project HOPE, che si sviluppa e opera nella città di Nablus (Cisgiordania, Territori Palestinesi Occupati), offre a bambini e adolescenti del luogo la possibilità di frequentare corsi di varie discipline, impartiti da volontari internazionali provenienti da tutto il mondo. In questo contesto, i volontari locali che si offrono come interpreti forniscono ai volontari internazionali la possibilità di approfondire la realtà quotidiana di una zona occupata, influenzando in maniera significativa la loro esperienza sul luogo. Nell’estate del 2015, ho insegnato a Nablus in qualità di volontaria per un mese, avendo la possibilità di intervistare 15 interpreti volontari. Abbiamo discusso riguardo alle loro esperienze di interpretazione, le tecniche che usano, la loro (auto)percezione all’interno di questa attività e le strategie che adottano per risolvere malintesi linguistici e culturali. Il capitolo I delinea la situazione socio-politica nei Territori Palestinesi Occupati, specialmente in Cisgiordania, e le attività di Project HOPE. Il capitolo II presenta un’inquadramento teorico che comprende interpretazione non professionale (specialmente in zone di conflitto), la prospettiva occidentale sul mondo arabo-musulmano e la teoria narrativa, applicata sia al campo della traduzione e interpretazione che alle interviste. Il capitolo III si concentra sulle interviste semi-strutturate, presentando il protocollo di intervista e le procedure di raccolta dati. Il capitolo IV analizza le risposte dei partecipanti, suddivise in cinque aree principali: informazioni personali, esperienze di interpretazione, (auto)percezione, episodi positivi e negativi, legame tra l’interpretazione e il futuro degli intervistati. Gli episodi raccontati dagli intervistati sono stati analizzati da un punto di vista narrativo.
Resumo:
L’interpretazione televisiva desta particolare interesse nella ricerca sull’interpretazione, perché questo contesto lavorativo dà una grande visibilità alla professione dell’interprete. Dato il considerevole aumento dell’importanza dei mezzi di comunicazione di massa e la loro capillarità, si impone una forma di trasferimento linguistico che renda fruibili al più vasto pubblico gli eventi trasmessi. Lo scopo di questo studio è presentare l’interpretazione televisiva nelle sue varie forme, soffermandosi poi sull’interpretazione simultanea e in particolare sull’analisi di due interpretazioni di uno stesso evento mediatico: il secondo dibattito televisivo del 2012 tra i due candidati alla presidenza degli Stati Uniti d’America: l’ex governatore del Massachusetts Mitt Romney e il presidente uscente Barack Obama. Il primo capitolo si basa sui dibattiti presidenziali statunitensi e illustra la storia dei dibattiti televisivi statunitensi, oltre al contesto e al discorso politico americano. Nel secondo capitolo viene analizzata l’interpretazione per la televisione. Dopo alcuni cenni storici, si passano in rassegna le diverse modalità di conversione linguistica utilizzate nel contesto televisivo. Il terzo capitolo verte sulla presentazione dei dati raccolti, la selezione e la trascrizione degli stessi. Il quarto capitolo contiene la vera e propria analisi delle rese interpretative in italiano dei dibattiti presidenziali americani scelti. Vengono prese in esame e confrontate le interpretazioni in italiano dello stesso dibattito trasmesse da due diversi canali: Rai News e Sky TG24. Il quinto capitolo contiene alcune considerazioni conclusive che si basano sul risultato dell’analisi dei dati. Nell’appendice viene invece presentata una parte del materiale analizzato, ovvero le trascrizioni segmentate e allineate del dibattito in originale e delle due interpretazioni.
Resumo:
La presente tesi tratta dello sviluppo e progettazione di sistemi di automazione applicati a Macchine Industriali. Il documento è strutturato come segue: - Capitolo 1: Nel primo capitolo viene illustrata la parte embrionale del progetto, ovvero vengono descritte le prime fasi di natura tecnica nelle quali tramite interazioni con il Cliente vengono acquisite le specifiche,i dati e le informazioni su cui basare il Progetto; - Capitolo 2: Nel secondo capitolo viene mostrato come procedere, una volta recepite le informazioni di carattere generale del progetto desiderato, con lo studio e ricerca della soluzione ingegneristica più idonea in accordo con le Normative vigenti; - Capitolo 3: Nel terzo capitolo viene chiarito lo sviluppo vero e proprio del progetto e la ricerca dei componenti e degli apparati da prevedere; - Capitolo 4: Nel quarto capitolo viene illustrata una delle parti più delicate e importanti del progetto, la direzione lavori, insieme allo svolgimento dei test finali e alla redazione della documentazione finale da consegnare al Cliente; - Conclusioni. Dove ogni capitolo è diviso in due parti, la prima è introduttiva, dove vengono forniti gli strumenti teorici per la trattazione del problema, mentre la seconda è sperimentale e fa riferimento a un progetto da me sviluppato riguardante un Revamping di un sistema di riempimento sacchi.
Resumo:
L’epilessia è una patologia neurologica cronica caratterizzata dalla tendenza, in un dato soggetto, a generare crisi convulsive spontanee, accompagnate generalmente da perdita di coscienza. Rappresenta uno fra i più frequenti disturbi neurologici cronici: l’1% della popolazione mondiale (circa 50 milioni) ne è affetta. Il presente elaborato di tesi ha analizzato le tecniche di imaging biomediche non invasive per lo studio dell’epilessia. Le tecniche PET, MEG e fMRI contribuiscono non solo a fornire una migliore comprensione dell’anatomia, della fisiologia e della connettività funzionale di specifiche aree cerebrali, ma consentono anche di localizzare determinate aree legate all’insorgenza e alla propagazione della crisi epilettica. Sono stati riportati studi clinici recenti che hanno investigato sull’uso di queste tecniche al fine di localizzare la zona epilettogena nei pazienti. Inoltre, gli studi si sono incentrati anche sullo sviluppo e sulla propagazione della crisi epilettica, fornendo delle indicazioni sulle possibili prospettive future relative alla tecnologia e all’elaborazione dei dati. L’analisi verrà condotta approfondendo le principali apparecchiature responsabili degli attuali sviluppi nelle ricerche sull’epilessia. Nello specifico, si effettuerà l’analisi della strumentazione partendo dai principi fisici alla base del suo funzionamento, per poi descriverne la struttura, le modalità di impiego per la specifica indagine e i futuri sviluppi.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Lo scopo di questo elaborato è stato determinare una modalità per ridurre il rischio di Listeria monocytogenes in semi di ravanello utilizzati per produrre germogli ad uso alimentare. Per fare ciò è stato utilizzato il timolo, un composto fenolico la cui attività antimicrobica è nota. In primo luogo sono state eseguite prove preliminari in vitro per verificare gli effetti di diverse concentrazioni di questo terpene su L. monocytogenes mediante l’uso di un citofluorimetro. I risultati hanno mostrato che 30 minuti di esposizione a 500 ppm di timolo in acqua peptonata determinano un danneggiamento della membrana cellulare in metà della popolazione microbica. Quando l’esposizione avviene in tampone fosfato, l’effetto è evidente già a 250 ppm (82% di cellule danneggiate). Successivamente, è stato valutato l’effetto di diverse concentrazioni di timolo su cellule di L. monocytogenes preventivamente inoculate su semi di ravanello. La prova è stata condotta in due modalità: la prima in contenitori sterili, la seconda in germogliatori per riprodurre fedelmente le tecniche utilizzate nel processo industriale o casalingo. Sono stati effettuati sia campionamenti microbiologici (su semi, germogli e acqua degli ammolli) sia prove di germinabilità per individuare un’eventuale riduzione della capacità germinativa dei semi a seguito del contatto con timolo. Dai dati ottenuti è emerso che il timolo riesce a contenere entro certi limiti la crescita di L. monocytogenes nell’acqua usata per l’ammollo, ma non ha un effetto significativo sul suo destino nei semi durante la germinazione. La presenza di timolo non compromette la capacità germinativa ma rallenta il processo di germinazione. In conclusione, il processo produttivo di germogli lascia spazio a molti rischi microbiologici nel caso siano già presenti nella matrice delle specie patogene. Ciò nonostante l’impiego di trattamenti preliminari sui semi prima del germogliamento, può essere una strada importante per ridurne i rischi.