931 resultados para acidificazione, Isola di Ischia, effetto vento, serie temporali, analisi dati
Resumo:
Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.
Resumo:
In anni recenti il potenziale degradativo dei lieviti nelle bevande ha assunto un’importanza crescente a causa degli importanti danni economici ad essi associati e i produttori sono sempre più attenti a queste problematiche, anche in relazione alla tendenza di ridurre i trattamenti termici, in una strategia di risparmio energetico e di riduzione del danno termico organolettico. L’obiettivo dell’elaborato è stato quello di testare la termoresistenza di diversi ceppi di lieviti che possono costituire un rischio per bevande di fantasia: sette appartenenti alla specie Saccharomyces cerevisiae, tre Zygosaccharomyces, un ceppo di Saccharomycodes ludwigii, uno di Schizosaccharomyces pombe e uno di Kluyveromyces marxianus. Le prove di termoresistenza sono state condotte in vitro utilizzando terreno di coltura impiegando temperature di 55°C, 60°C e 65°C e i dati sono stati modellati con l’equazione di Weibull per ottenere le curve di morte termica dei diversi ceppi. Questo modello permette di tenere conto dell’approccio vitalistico dell’interazione tra temperatura e cellula e descrive l’inattivazione microbica come risultato del fallimento delle cellule nel contrastare le condizioni ostili dovute all’alta temperatura. I risultati hanno dimostrato che i ceppi erano caratterizzati da termoresistenza molto variabile. In generale, tra le specie non Saccharomyces, i più resistenti erano K. marxianus e Sch. Pombe mentre tra i Saccharomyces il più resistente era il ceppo SPA, isolato in uno stabilimento di bevande e responsabile di un incidente industriale che ha portato all’alterazione di oltre 500000 bottiglie di bibite gassate. Questo screening preliminare per la valutazione della termoresistenza ad un potenziale trattamento industriale ha permesso di individuare i lieviti più resistenti che saranno poi oggetto di un successivo studio in cui verranno tenuti presenti altri fattori tecnologici e di prodotto per poi potersi muovere in un ambiente industriale.
Resumo:
L'elaborato tratta il ruolo del porto di Ravenna nell'import/export di prodotti ortofrutticoli. Dopo una accurata analisi dei dati, lo studio delle rotte marittime e l'uso di Dbms per gestire un database complesso, si propone un modello di programmazione lineare intera su un problema di ship routing, ship scheduling e full ship-load balancing. L'obiettivo è di massimizzare il profitto derivante da un prezzo di vendita e soggetto ai vari costi della logistica. Il modello sceglie la rotta ottimale da effettuare, in termini di ordine di visita dei vari porti che hanno un import e un export dei prodotti studiati. Inoltre, è in grado di gestire lo scorrere del tempo, fornendo come soluzione il giorno ottimale di visita dei vari porti considerati. Infine, trova la ripartizione ottima del numero di container a bordo della nave per ogni tipologia di prodotto.
Resumo:
La tesi si sviluppa attraverso 5 capitoli volti a mostrare l'importanza della valutazione economica del marchio. Si andrà a definire il concetto di marchio e di brand licensing per passare così a descrivere uno dei principali metodi di valutazione: il Relief from Royalty, che pone come input chiave di tale valutazione il tasso di royalty. Si è inoltre svolta un'analisi di tale tasso, in 2 settori merceologici diversi ma collegati, per poter evidenziare i termini che incidono maggiormente sul suo valore e quindi sul valore del marchio.
Resumo:
Il versante sinistro delle Gole di Scascoli (BO) è caratterizzato da una marcata tendenza evolutiva per crollo e ribaltamento. Negli ultimi 25 anni si sono verificati eventi parossistici con volumi di roccia coinvolti rispettivamente di 7000 m3, 20000 m3 e 35000 m3. Il sito è di grande rilevanza a causa del forte fattore di rischio rappresentato per la strada di fondovalle ad esso adiacente. Il lavoro di tesi è stato finalizzato allo studio dei fenomeni di versante di una parete rocciosa inaccessibile nota in letteratura come “ex-Mammellone 1” mediante tecniche di telerilevamento quali TLS (Terrestrial Laser Scanning) e CRP (Close Range Photogrammetry) al fine affiancare il rilievo geomeccanico soggettivo dell’area svolto nel 2003 da ENSER Srl in seguito ai fenomeni di crollo del 2002. Lo sviluppo di tecnologie e metodi innovativi per l’analisi territoriale basata sull’impiego di UAV (Unmanned Aerial Vehicle, meglio noti come Droni), associata alle tecniche di fotogrammetria digitale costituisce un elemento di notevole ausilio nelle pratiche di rilevamento in campo di sicurezza e tempi di esecuzione. Il lavoro ha previsto una prima fase di rilevamento areo-fotogrammetrico mediante strumentazione professionale e amatoriale, a cui è seguita l’elaborazione dei rispettivi modelli. I diversi output sono stati confrontati dal punto di vista geomorfologico, geometrico, geomeccanico e di modellazione numerica di caduta massi. Dal lavoro è stato possibile indagare l’evoluzione morfologica del sito in esame negli ultimi 10 anni, confrontare diversi metodi di rilevamento e analisi dati, sperimentare la robustezza e ripetibilità geometrica del metodo fotogrammetrico per il rilievo di fronti rocciosi e mettere a punto un metodo semiautomatico di individuazione e analisi delle giaciture delle discontinuità.
Resumo:
Censimento completo, aggiornato a settembre 2015, dei punti di prelievo dell'energia elettrica e dei dati generali su tutte le utenze elettriche del CNR, realizzato per lo svolgimento delle attività di energy management del CNR.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2016.
Resumo:
Lo scopo della tesi è analizzare gli aspetti principali del progetto People Mover di Bologna, toccando gli aspetti costruttivi, ambientali e trasportistici, esaminando lo studio della domanda di trasporto e svolgendo infine un analisi swot dei punti di forza o debolezza. Il People Mover di Bologna è un sistema innovativo di trasporto pubblico che collegherà in 7 minuti la stazione ferroviaria all’aeroporto Marconi, effettuando una sola fermata intermedia presso il Lazzaretto, un’area destinata ad ospitare un nuovo insediamento abitativo nonché nuovi spazi per l’Università di Bologna. Il People Mover è un sistema di trasporto pubblico che offre: certezza sui tempi di percorrenza, mobilità silenziosa, zero emissioni (trazione elettrica), sicurezza di esercizio, costi ridotti rispetto ad una metropolitana. Dopo aver valutato in sede di analisi swot, i pro e contro di tale opera è giusto fare un confronto tra il People Mover e il Servizio Ferroviario Metropolitano. In passato il confronto fra i sostenitori del People mover e del Sistema ferroviario metropolitano è stato in parte ideologico, in parte politico e solo limitatamente tecnico. La tesi analizza le differenze tecniche dei due sistemi di trasporto. Voler far convivere sulla stessa infrastruttura due utenze molto diverse (quella aeroportuale e quella pendolare) è difficile e porterebbe alla non soddisfazione di entrambe. Se l’utenza aeroportuale chiede rapidità e spazio per i bagagli, i pendolari chiedono maggiori posti a sedere e maggiore intensità del servizio. In conclusione lo scopo di questa tesi non è porre dei dubbi sul progetto dell’opera stessa, peraltro già in fase di cantierizzazione, ma fornire un analisi più completa sul progetto.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Gli Open Data sono un'utile strumento che sta via via assumendo sempre più importanza nella società; in questa tesi vedremo la loro utilità attraverso la realizzazione di un'applicazione mobile, che utilizza questi dati per fornire informazioni circa lo stato ambientale dell'aria e dei pollini in Emilia Romagna, sfruttando i dataset forniti da un noto ente pubblico (Arpa Emilia Romagna). Tale applicazione mobile si basa su un Web Service che gestisce i vari passaggi dei dati e li immagazzina in un database Mongodb. Tale Web Service è stato creato per essere a sua volta messo a disposizione di programmatori, enti o persone comuni per studi e sviluppi futuri in tale ambito.
Resumo:
La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
L'analisi del DNA è una delle chiavi per la comprensione della vita e dei suoi funzionamenti. Le tecniche di sequenziamento di nuova generazione NGS permettono una analisi parallela di molte sequenze che hanno reso possibili i sequenziamenti di genomi interi e l'impiego di questi dati in una vasta gamma di studi. In questa tesi verranno descritte le principali tecniche di sequenziamento NGS. Per quanto riguarda il genoma umano si tratteranno alcune tematiche di studio di varianti affrontate dal gruppo 1000Genomes. Nella fase conclusiva si introdurranno definizioni di statistica utili nell'affrontare l'elaborazione dei dati. Inoltre vengono descritti alcuni strumenti che permettono di svolgere questo tipo di analisi.
Resumo:
This doctoral Thesis aims to approach the philosophical significance of the Italian author Elsa Morante, expressed through poetic narrative of her second great novel L'isola di Arturo (1957). For this reason, the inductive knowledge has been opted, which can be reached through the symbolic study of the sea and the mediterranean. From the philosophical and psychoanalytical research from such authors as Mircea Eliade, Gaston Bachelard and Carl Jung, linked to the circle of the Eranos Foundation in Switzerland, where the most rigorous multidisciplinary science theories of nature and man converged, and the Grenoble imaginary Center of Research, driven by anthropologist Gilbert Durand in 1966, a revealing investigation of aquatic and marine image has been carried out. In this context of convergence, the work Las estructuras antropológicas del imaginario by Durand, has fulfilled the important catalytic role, of both the Renaissance conception that wants to observe certain universal components in the symbolic vision that nourishes literary expression, as well as the compilation of large images that illuminate the human imaginary of all time. Objectives and results In this regard, it has been considered that the appropriate approach to morantiano imaginary, could only be done thoroughly, based on a repertoire of images as complete as possible, which, if performed from the anthropological compendium of people and civilization of the world, it is offered as a study backed by profound consistency which is the basis of the method. Therefore, it is said, the imaginary is studied and understood through itself. Thus, the internal coherence of this method is seen to be configured as a form of knowledge of human thought because research, from the symbolic point of view, dissects reality in various ways, however, the most seductive is to consider the possibility of an internal coherence between them to converge at a common conclusion which includes all of them. This fact determines the systematization which is shown in the first part of this thesis, as the image and symbol have a close homogeneity between the signifier and the meaning, so that metaphorical expression is established as the structuring element of the human imaginary and the literary representation...