1000 resultados para acque, Marecchia, tecniche analitiche, nitrati
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
Presso i laboratori del DICAM dell’Università di Bologna, partner del progetto FIT4REUSE, si studiano materiali adsorbenti innovativi per la rimozione ed il recupero di ammonio e fosfato dalle acque reflue municipali, mediante processo di scambio ionico in continuo su letto fisso, con l’obbiettivo di separare e concentrare l’azoto e il fosforo al fine di ottenere prodotti utilizzabili come fertilizzanti. Nello specifico questo elaborato di tesi riporta lo studio di due geopolimeri per l’adsorbimento di azoto, il geopolimero Na1.2G e il K1.2G, e li confronta con il geopolimero G13 che finora ha mostrato le prestazioni migliori.
Resumo:
Il lavoro di tesi si è posto l'obiettivo di studiare il comportamento fluidodinamico di un reattore agitato meccanicamente, scale-down di un digestore anaerobico per la produzione di biogas, attraverso tecniche di diagnostica ottica. Le tecniche utilizzate sono state la Particle Image Velocimetry, PIV, e la Planar Laser Induced Fluorescence, PLIF. Le prove sono iniziate utilizzando acqua all’interno del reattore e sono proseguite utilizzando una soluzione di acqua e Carbometilcellulosa (CMC) a concentrazione di CMC progressivamente crescente per aumentare la viscosità apparente della soluzione non newtoniana con lo scopo di simulare il più realisticamente possibile la viscosità del contenuto reale del digestore. Tutte le diverse soluzioni sono state indagate per diverse velocità e diversi sensi di rotazione. Le prove di diagnostica ottica sono state progressivamente affiancate da prove al reometro di campioni di soluzione per il calcolo della viscosità apparente. La PIV ha fornito la misura del campo di moto di un piano, è stato scelto di analizzare un piano verticale. Il metodo di diagnostica ottica ho previsto l’utilizzo di quattro componenti: una sezione per il test otticamente trasparente contenente la soluzione inseminata con piccole particelle di tracciante (particelle di argento e vetro cavo) che seguono il flusso, una sorgente di illuminazione pulsata (laser), un dispositivo di registrazione (una telecamera digitale ad alta definizione) ed un software per la cross-correlazione delle immagini acquisite (DynamicStudio). La PLIF è stata implementata per lo studio del tempo caratteristico di miscelazione nel reattore. La strumentazione utilizzata è stata la stessa della PIV con un tracciante diverso a base di Rodhamina-6G. Lo studio ha riguardato il tempo necessario all’omogeneizzazione del tracciante mediante un’analisi del coefficiente di variazione, CoV, delle immagini acquisite.
Resumo:
La pratica dell’appassimento fa parte della cultura mediterranea sin dall’era del Neolitico. Tale tecnica veniva praticata anche nell’Antica Grecia e successivamente nelle diverse regioni dell’Impero Romano. Il presente elaborato si propone, attraverso lo studio dello stato dell’arte relativamente ai vini passiti, di illustrare alcune tecniche di vinificazione, approfondire le caratteristiche salienti di questa tipologia di vino e delinearne il posizionamento sul mercato. In particolare, si sono prese in considerazione le tre tecniche di appassimento comunemente utilizzate: appassimento in campo, in fruttaio e in cella. Per quanto concerne l’appassimento in campo, si è fatto un approfondimento in merito agli effetti indotti dalla Botrytis cinerea, muffa nobile la cui presenza sulle uve permette di dar vita a vini botritizzati dalle caratteristiche distintive, come nel caso dell’Albana Passito di Romagna. I metodi di appassimento che prevedono l’utilizzo di un locale apposito (fruttaio e cella) si differenziano per il controllo della temperatura e dell’umidità e quindi il processo di disidratazione dell’acino avviene in tempi più rapidi e con minor rischio di sviluppo di patogeni. Lo sviluppo di queste tecniche come ha impattato sul consumo di vino passito? Negli ultimi anni il consumo di vino sta aumentando, e l’Italia è uno dei principali paesi produttori e consumatori. Il vino passito però, data la sua complessità e le particolari occasioni d’uso, occupa un piccolo spazio in questo scenario ed è caratterizzato da una concentrazione nel consumo delle produzioni locali, faticando a occupare un posto di rilievo sul mercato. Nonostante ciò, vi sono anche casi di successo, come quello dell’Amarone della Valpolicella DOCG, che lasciano ben sperare in uno sviluppo futuro.
Resumo:
The Venice Lagoon is a complex, heterogeneous and highly dynamic system, subject to anthropogenic and natural pressures that deeply affect the functioning of this ecosystem. Thanks to the development of acoustic technologies, it is possible to obtain maps with a high resolution that describe the characteristics of the seabed. With this aim, a high resolution Multibeam Echosounder (MBES) bathymetry and backscatter survey was carried out in 2021 within the project Research Programme Venezia 2021. Ground-truthing samples were collected in 24 sampling sites to characterize the seafloor and validate the maps produced with the MBES acoustic data. Ground-truthing included the collection of sediment samples for particle size analysis and video footage of the seabed to describe the biological component. The backscatter data was analysed using the unsupervised Jenks classification. We created a map of the habitats integrating morphological, granulometric and biological data in a GIS environment. The results obtained in this study were compared to those collected in 2015 as part of the National Flagship Project RITMARE. Through the comparison of the repeated morpho-bathymetric surveys over time we highlighted the changes of the seafloor geomorphology, sediment, and habitat distribution. We observed different type of habitats and the presence of areas characterized by erosive processes and others in which deposition occurred. These effects led to changes in the benthic communities and in the type of sediment. The combination of the MBES surveys, the ground truth data and the GIS methodology, permitted to construct high-resolution maps of the seafloor and proved to be effective implement for monitoring an extremely dynamic area. This work can contribute not only to broaden the knowledge of transitional environments, but also to their monitor and protection.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Nello studio condotto si è voluto indagare in modo preliminare la fattibilità dal punto di vista normativo e tecnico di attuare operazioni di recupero di materia su scarti prodotti dagli stabilimenti di molluschicoltura di Goro, con il fine di inserirli in un progetto più ampio di costruzione di barriere sommerse a protezione del litorale. Attraverso dati produttivi è stato analizzato innanzitutto il contesto territoriale nel quale si colloca questa attività. E' stato ripercorso il destino ambientale che attende gli scarti in uscita all'impianto e con l'ausilio delle normative in materia di rifiuti si è cercato di delineare possibili scenari migliorativi rientranti nei principi dell'economia circolare, mostrandone i rispettivi vantaggi e requisiti. Ipotizzata l'alternativa migliore, infine si sono studiate le caratteristiche tecniche del capulerio al fine di destinarlo ad un impiego in campo edile, attraverso prove condotte in laboratorio e studi presenti in letteratura.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.
Resumo:
Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.
Resumo:
In questa tesi abbiamo analizzato diverse tecniche di estrazione dei bordi, al fine di separare l'oggetto dallo sfondo o dagli altri oggetti di un'immagine digitale. I vari metodi sono stati confrontati su alcune immagini di test per meglio comprenderne pregi e difetti.
Resumo:
L’obiettivo di questa tesi `e l’estensione della conoscenza di un argomento già ampliamente conosciuto e ricercato. Questo lavoro focalizza la propria attenzione su una nicchia dell’ampio mondo della virtualizzazione, del machine learning e delle tecniche di apprendimento parallelo. Nella prima parte verranno spiegati alcuni concetti teorici chiave per la virtualizzazione, ponendo una maggior attenzione verso argomenti di maggior importanza per questo lavoro. La seconda parte si propone di illustrare, in modo teorico, le tecniche usate nelle fasi di training di reti neurali. La terza parte, attraverso una parte progettuale, analizza le diverse tecniche individuate applicandole ad un ambiente containerizzato.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.