464 resultados para letteratura di viaggio
Resumo:
Le epidemie tossinfettive dovute al consumo di prodotti vegetali freschi hanno subito negli ultimi anni un rilevante incremento a causa della crescente centralizzazione delle produzioni in prossimità di aree destinate alle produzioni animali, all’aumento dell’importazione e del trasporto di prodotti provenienti da grandi distanze, all’aumento del settore dei prodotti di IV gamma e all’incremento delle fasce di popolazione più sensibili ai principali patogeni degli alimenti. I dati recenti indicano che, negli USA, le tossinfezioni associate al consumo di vegetali freschi sono passati dallo 0.7% del totale negli anni ‘70, al 6% negli anni ’90, al 13% nei primo anni 2000, fino a rappresentare nel 2014 il 46% delle tossinfezioni complessive. Il consumo di pomodori freschi è stato implicato in numerose tossinfezioni, anche di ampie dimensioni, in diverse aree del globo. Oltre alle salmonellosi, i pomodori costituiscono importanti veicoli per la trasmissione per altri patogeni quali Listeria monocytogenes, Escherichia coli VTEC e Yersinia enterocolitica. Gli studi sulla composizione quali-quantitativa dei microrganismi presenti sui pomodori al momento della loro commercializzazione sono pochissimi. Per queste ragioni, nel mio elaborato mi sono occupata di valutare alcuni parametri microbiologici campionando la superficie di pomodori a grappolo di diversa tipologia, prelevati dai banchi della distribuzione, venduti sfusi o preconfezionati. Le analisi condotte erano mirate alla ricerca della carica batterica totale, di Escherichia coli, enterobatteriacee, stafilococchi, muffe e lieviti. Dai risultati ottenuti si evince che non esistono effettivamente delle differenze significative sulle caratteristiche microbiologiche dei pomodori in base al tipo di confezionamento. Inoltre si può anche osservare come le cariche microbiche individuate siano relativamente contenute e paragonabili a quelle riportate in letteratura per prodotti analoghi considerati a basso rischio.
Resumo:
In questo lavoro si analizza il rendimento isoentropico di diversi espansori adottati all’interno di sistemi micro-ORC (Organic Rankine Cycle). Si parte da una descrizione generale dei sistemi ORC, mettendone in evidenza le principali caratteristiche, il layout tipico, le differenze rispetto ad un ciclo Rankine tradizionale, e gli ambiti di utilizzo. Si procede ad una trattazione teorica del rendimento isoentropico del compressore e dell’espansore, specificando le ipotesi adottate nei calcoli e mettendo in luce la relazione tra rendimento isoentropico e politropico nell’uno e nell’altro apparato. Si passa poi alla descrizione delle quattro principali tipologie di espansori presenti in letteratura: scroll, screw, vane e piston, e si prosegue con l'analisi nel dettaglio della letteratura relativa alla valutazione dell’efficienza di questi quando utilizzati all’interno di un sistema micro-ORC. Infine, dopo aver descritto il sistema ORC del laboratorio di via Terracini del DIN, illustrandone layout, componenti principali, potenza scambiata all’interno dei componenti e modalità di calcolo adottata per la valutazione del rendimento isoentropico dell’espansore e del sistema complessivo, si confrontano i dati di efficienza di questo con quelli reperiti in letteratura. Il confronto del rendimento, dell'espansore e complessivo, del sistema del DIN, 33.8% e 1,818% rispettivamente, con quelli degli altri sistemi, è risultato di difficilmente valutazione a causa delle condizioni di forte off-design del sistema stesso. Dalla ricerca è inoltre emerso che i fluidi più utilizzati nella sperimentazione, e dunque capaci di migliori prestazioni, sono R245fa, R134a e R123. Per quel che riguarda infine gli espansori, nel range di potenza di 1-10 kW, lo scroll risulta essere il migliore.
Resumo:
Nell’elaborato presentato è stato analizzato il sistema ORC, presente nel laboratorio DIN della Facoltà di Ingegneria, e confrontato con alcuni banchi prova estratti dalla letteratura. Sono stati studiati gli elementi caratterizzanti del sistema, definendone le loro caratteristiche, le loro dimensioni e la loro collocazione all’interno dell’impianto. Inseguito è stato fatto un confronto con degli impianti di simile taglia che sfruttano fonti di calore differenti. Infine è stato esaminato nel dettaglio il layout del sistema ORC definendone la sua struttura 3D per avere una maggiore chiarezza sulla composizione di questo impianto e sul posizionamento reciproco dei suoi elementi.
Resumo:
La tesi è organizzata nelle seguenti parti: -il primo capitolo affronta il tema della transizione dalla teoria economica classica all'approccio della neuroeconomia, ripercorrendo alcune tappe fondamentali che hanno progressivamente avvicinato l'economia al funzionamento della mente umana; -il secondo capitolo è rivolto a rappresentare le principali caratteristiche dei processi decisionali in Internet, attraverso l’esame della letteratura, anche con riferimento ad ipotesi recenti sulla possibilità che la stretta esposizione al “digitale” porti ad un cambiamento del funzionamento della mente; -il terzo capitolo sviluppa una ipotesi applicativa del nuovo “paradigma” della neuroeconomia al mondo di Internet, evidenziando i processi e le variabili chiave; -nelle conclusioni si riprendono sinteticamente gli aspetti chiave trattati, anche in termini di limiti e possibili sviluppi futuri del lavoro svolto.
RSLT: trasformazione di Open LinkedData in testi in linguaggio naturaletramite template dichiarativi
Resumo:
La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Il presente elaborato si concentra sul fenomeno dei campi di concentramento sorti in Spagna negli anni della guerra civile e della seconda guerra mondiale. Nel primo capitolo vengono brevemente delineati svolgimento e cause della guerra di Spagna, terminata con l’instaurazione della dittatura del caudillo. Nel secondo capitolo vengono descritte le caratteristiche del sistema concentrazionario franchista durante la guerra civile (con particolare attenzione ad alcuni dei campi più noti di quel periodo), nonché quelle della rieducazione politica di cui esso si riproponeva di rappresentare uno strumento. Nel terzo capitolo viene descritto il sistema concentrazionario franchista negli anni del secondo conflitto mondiale (dedicando spazio, ancora una volta, ai campi più rilevanti risalenti a quella fase). Nel quarto capitolo, infine, vengono analizzate alcune fonti letterarie relative ai campi di concentramento, prendendo in considerazione sia scritti autobiografici che opere di narrativa.
Resumo:
Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.
Resumo:
Le fonti di energia rinnovabili rappresentano una forma di energia indispensabile al sostentamento dell’attuale sistema produttivo mondiale. L’energia eolica e fotovoltaica ricoprono un ruolo fondamentale nel panorama rinnovabile, e portano con se l’inevitabile svantaggio derivato dall’impossibilita di controllare la fonte primaria di energia. I sistemi di accumulo ed immagazzinamento di energia assumeranno un ruolo strategico nel prossimo scenario energetico, in particolare nell’elaborato viene posta l’attenzione sui sistemi Power-to-Gas. La tecnologia Power-to-Gas consente di produrre gas ad alta potenza specifica (idrogeno o metano sintetico), usando elettricità proveniente da fonti rinnovabili. L’elettrolisi è il metodo più efficiente per convertire energia elettrica in idrogeno. Tra le varie tecnologie, gli elettrolizzatori di tipologia PEM (Proton Exchange Membrane), sono considerati i più adatti all’accoppiamento con fonti di energia rinnovabile, per via della loro risposta alle variazioni di carico e dell’ampio campo di funzionamento. Il lavoro di tesi si concentra sull’analisi delle prestazioni di elettrolizzatori tipo PEM, ed in particolare sull’elettrolizzatore inserito all’interno del “Laboratorio di Microreti di Generazione ed Accumulo” del Tecnopolo di Ravenna. Il laboratorio ha lo scopo di studiare e testare sistemi per la produzione di energia elettrica da fonte rinnovabile e per l’accumulo. L’impianto è costituito principalmente da due pannelli fotovoltaici con il compito di produrre energia, due batterie per accumulare l’energia prodotta dai pannelli, un elettrolizzatore e tre bombole a idruri metallici per lo stoccaggio di idrogeno. Dai dati sperimentali ottenuti dalle prove in laboratorio si è ricavato un modello matematico black-box dell’elettrolizzatore. Il modello gestisce le equazioni della curva caratteristica (P;η). In seguito il modello ottenuto è stato confrontato con un caso analogo presente in letteratura.
Resumo:
Questa tesi si propone di studiare quale sia e quale sia stato il ruolo della lingua francese nella storia della Tunisia analizzando e traducendo il romanzo La marche de l’incertitude dell’autore tunisino Yamen Manaï, pubblicato dapprima in Tunisia da Elzévir nel 2008 e da Elyzad poche nel 2010 e nel 2013 da Didier in Francia. Ho optato per la traduzione di un romanzo recentemente scritto da un giovane autore contemporaneo con l’obiettivo di mostrare quanto la letteratura francofona sia ancor oggi fiorente in Tunisia (e non solo). Infine, con il sostegno dell'autore e dell'editrice tunisina, questo progetto dovrebbe a breve concretizzarsi nella pubblicazione della traduzione.
Resumo:
Il principale costituente delle foglie di aloe è il gel di aloe ampiamente utilizzato in diversi settori industriali (cosmetico, medico, alimentare) grazie alle sue caratteristiche chimico-fisiche, tra cui la presenza di polisaccaridi con un’elevata capacità di ritenzione di acqua e sostanze oleose. L’obbiettivo di questo lavoro di tesi è stato la valutazione della capacità di assorbimento di cinque diverse matrici oleose (olio di mais raffinato, olio di soia raffinato, olio di girasole raffinato, olio extra vergine di oliva, glicerolo) da parte di polisaccaridi ottenuti dalla liofilizzazione di gel di aloe. Il prodotto liofilizzato è stato utilizzato per l’estrazione dei residui insolubili in alcol (AIRs) su cui è stata poi valutata la capacità di assorbimento delle matrici oleose. Per la caratterizzazione delle diverse tipologie di campioni utilizzati, sono state realizzate alcune determinazioni analitiche: per quanto riguarda gli AIRs, è stata realizzata la determinazione degli zuccheri mediante analisi gascromatografica, degli acidi uronici mediante spettrofotometria e del grado di metil esterificazione delle pectine mediante spettroscopia a infrarossi. Nelle matrici oleose è stata invece valutata la composizione in acidi grassi. I dati ottenuti sono risultati in accordo con quanto già presente in letteratura. Non è stato, inoltre, evidenziato un assorbimento selettivo in funzione dei diversi oli vegetali testati.
Resumo:
Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.
Resumo:
Nel presente lavoro di tesi è stato studiato il processo di adsorbimento di molecole su materiali a base grafene, la cui elevata area superficiale può essere misurata esclusivamente tramite la quantificazione di tali processi fisici. L’obiettivo principale di questo studio è stato quello di ottenere un protocollo sperimentale utile alla determinazione delle aree superficiali di materiali a base grafenica in soluzione. La molecola usata come standard per l’adsorbimento in liquido è stata il blu di metilene (MB), già ampiamente utilizzata in letteratura. Nello stato dell’arte attuale gran parte dei materiali sono stati analizzati unicamente tramite l’adsorbimento di gas in fase solida (N2 o Ar), ma per materiali composti a strati le diverse condizioni di aggregazione della polvere in secco e in soluzione portano ad una diversa stima dell’effettiva area superficiale. Con il presente lavoro è stato dimostrato che per substrati con aree superficiali comprese fra 6 e 1600 m2/g il MB è un'eccellente molecola standard per calcolare l’area superficiale in soluzione, trascurando la presenza di microporosità.
Resumo:
Per ottimizzare processi di polimerizzazioni in soluzione è importante conoscere a fondo la solubilità del sistema polimero-solvente. A tale scopo è utile avere a disposizione un diagramma di fase che ci permetta di conoscere le condizioni di perfetta solubilità. Quando questo non è disponibile in letteratura si rende necessaria la sua costruzione. Questa tesi spiega in quale maniera si è provato a disegnare il diagramma di fase per il sistema polibutadiene in n-esano, partendo dalla teoria di Flory-Huggins fino ad arrivare a misure sperimentali che hanno fornito le temperature di passaggio tra la soluzione polimerica e la miscela eterogenea. Le misure reometriche si sono rivelate la maniera più precisa per questa valutazione.
Resumo:
Questo lavoro di tesi ha avuto come scopo la preparazione di film dei semiconduttori organici Indaco e Chinacridone con metodi da soluzione, che sono i preferiti per la fabbricazione di dispositivi. Per la caratterizzazione dei film si è utilizzata la microscopia Raman nell’intervallo dei numeri d’onda delle vibrazioni reticolari, per identificare la natura della fase cristallina presente. Indaco e Chinacridone sono pigmenti fortemente insolubili in tutti i solventi organici, a causa della presenza dei forti legami a ponte di idrogeno intermolecolari che ne influenzano notevolmente le proprietà di stato solido. Questo rende difficile l’ottenimento di film omogenei per deposizione diretta di loro soluzioni. Per ovviare al problema, si è utilizzata una strategia di letteratura, che passa attraverso la preparazione di loro derivati solubili, con una reazione di protezione dei gruppi amminici presenti sulle molecole con gruppi termolabili (tBoc). Una volta depositato su substrato, il pigmento originale può essere rigenerato per riscaldamento del film. L’analisi Raman ha permesso di caratterizzare strutturalmente per la prima volta i film preparati con questa procedura. In particolare si è verificato che sui film di Indaco è sempre presente il polimorfo B, in accordo con quanto trovato nei film preparati con metodi di deposizione da vapore. Per quanto riguarda il Chinacridone invece dell’attesa β, la fase ottenuta è la metastabile α’, ottenibile in fase bulk solo in condizioni drastiche. In entrambi in casi si conferma la selettività del substrato verso un polimorfo specifico.