104 resultados para Reúso
Resumo:
Questo elaborato riguarda l'analisi delle variazioni di pressione sul fondale del Mar Mediterraneo. Il primo obiettivo era quello di identificare la variabilità a basse frequenze della pressione sul fondo. I dati osservati sono stati raccolti presso l'osservatorio ANTARES che si trova 40 km al largo di Tolone e ricopre un'area di 180x180 m. Sono state analizzate tre serie temporali, L1, L3, L8, e da esse è stata ricostruita una serie temporale dall'1 gennaio 2009 al 31 dicembre 2013. Sono state applicate delle procedure di despiking, media su 30 minuti e gap-filling. Sono stati proposti due metodi di detiding, una media su tre giorni e il filtro di Doodson. Successivamente è stato eseguito un detrending. Un confronto tra l'analisi armonica e il filtro di Doodson mostra una similarità nei risultati. Per questa ragione, per continuare il lavoro, è stata utilizzata la serie a cui era stato tolto il trend e le maree tramite il filtro di Doodson. Togliere le maree ha reso possibile la rimozione dei segnali ad alta frequenza per potersi focalizzare sui segnali rimasti a bassa frequenza. Uno spettro sulla serie ha mostrato i segnali stagionali dominanti insieme alla cosiddetta Chandler wobble con una frequenza di 14 mesi.
Resumo:
L'analisi del DNA è una delle chiavi per la comprensione della vita e dei suoi funzionamenti. Le tecniche di sequenziamento di nuova generazione NGS permettono una analisi parallela di molte sequenze che hanno reso possibili i sequenziamenti di genomi interi e l'impiego di questi dati in una vasta gamma di studi. In questa tesi verranno descritte le principali tecniche di sequenziamento NGS. Per quanto riguarda il genoma umano si tratteranno alcune tematiche di studio di varianti affrontate dal gruppo 1000Genomes. Nella fase conclusiva si introdurranno definizioni di statistica utili nell'affrontare l'elaborazione dei dati. Inoltre vengono descritti alcuni strumenti che permettono di svolgere questo tipo di analisi.
Resumo:
Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.
Resumo:
Nel presente elaborato di tesi si esporranno le fasi di costruzione ed i risultati del modello idraulico del sistema di distribuzione idrica della città di Cesena, comprendente tutta l’area cittadina e la zona di pianura a nord-ovest adiacente. Il caso di studio è stato reso disponibile dal gestore del Servizio idrico integrato nel territorio Hera S.p.A. Il modello numerico è stato implementato utilizzando il programma Infoworks® WS di HR Wallingford per la progettazione e gestione delle reti idriche. La realizzazione di un modello idraulico richiede la conoscenza topologica della rete e del suo funzionamento, nonché informazioni sul consumo idrico, fondamentali per la determinazione della domanda idrica. Essa comprende il consumo idropotabile delle utenze e la perdita idrica. Per le elaborazioni sono stati utilizzati i programmi open source QGis e RStudio. La variabilità del consumo è stata rappresentata attraverso una curva costruita sulla base del bilancio idrico della rete, mentre quella della perdita attraverso un pattern basato sul metodo del Minimum Night Flow. Compiuta la prima simulazione su un periodo di 7 giorni e ottenuti i primi risultati, si sono rese necessarie delle operazioni di calibrazione eseguite confrontando i dati risultanti dal modello con quelli misurati sul campo. Uno dei vantaggi di un modello numerico è quello di poter indagare le grandezze idrauliche in ogni punto della rete. È stato, infatti, possibile creare vere e proprie mappe tematiche che illustrano la variazione delle grandezze di interesse al variare dello spazio e del tempo. Un altro vantaggio è quello di poter prevedere il comportamento della rete in seguito a delle modifiche. Si è potuto, infatti, applicare lo strumento modellistico ad un’ipotesi di distrettualizzazione del sistema.
Resumo:
Dando continuità all’attività di ricerca intrapresa durante il mio precedente tirocinio presso il Dipartimento di Ingegneria Industriale DIN di Bologna, lo scopo della mia tesi è stato quello di chiarire i meccanismi di stabilità di fase della lega ad alta entropia CoCrFeMnNi ed esplorare la sua natura metastabile alle medio-alte temperature (tra i 450-1150°C). Nell’ottica di possibili future applicazioni industriali, è stato inoltre valutato l’effetto che la produzione via Additive Manufacturing può avere su proprietà e comportamenti delle leghe ad alta entropia. Sperimentalmente sono state fatte importanti osservazioni, a volte in contrasto con la letteratura precedente, che aprono la strada ad ulteriori e più specifiche indagini verso la comprensione dei complessi meccanismi che recentemente hanno reso queste leghe così interessanti per la ricerca a livello mondiale.
Resumo:
La risorsa idrica, nel nostro territorio, è sottoposta a diversi fattori avversi che inficiano fortemente la sua disponibilità. Le cause di maggiore impatto hanno natura climatica o antropica. Tra queste il consumo idropotabile collegato al turismo in particolari contesti può comportare un eccessivo sfruttamento delle fonti idriche e un sovraccarico sulla rete di distribuzione. Lo studio pone l'attenzione sul Comune di Rapallo, ne analizza la domanda idropotabile di alcune strutture ricettive e ne determina caratteristiche comuni su cui basare future valutazioni sulla pianificazione delle infrastrutture e la realizzazione di modelli idraulici. A fondamenta dello studio, è stata effettuata un'analisi climatica dell'area, al fine di determinare la tipologia e la mole di turismo che caratterizza la zona; gli strumenti che lo hanno permesso sono principalmente le stazioni pluviometriche site a Rapallo e nelle aree limitrofe. Successivamente, sono stati ricavati i consumi idropotabili dei grandi utenti, delle strutture recettive e degli stabilimenti balneari dell'area di studio per il biennio 2016-2017. Questi dati sono stati poi correlati ai vari servizi offerti dagli alberghi. Lo studio si è soffermato su una utenza sportivo ricreativa, valutandone il consumo e il suo impatto sul triennio 2018-2020. Inoltre, l’installazione da parte di IREN S.p.A., di smart meter presso 11 strutture alberghiere ha reso disponibili informazioni sul consumo idropotabile ad intervalli inferiori all’ora ed è stato quindi possibile effettuare un'analisi di dettaglio sulla variabilità temporale del consumo negli alberghi. Sono emerse alcune analogie tra strutture simili per servizi offerti e differenze giornaliere nei periodi analizzati, riconducibili anche alla stagionalità che caratterizza le utenze turistiche.
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
Questo elaborato intende illustrare come il successo della serie Netflix Original Dark abbia reso la Germania uno dei più grandi esportatori europei di serie tv sul mercato globale. La tesi è articolata in tre capitoli: nel primo viene fornita un’introduzione sulla nascita della piattaforma di streaming Netflix fino al suo arrivo in Europa e sulla distribuzione delle prime coproduzioni europee, per poi concentrarsi sul caso di studio della serie Dark, spiegando come si siano svolti i processi produttivi e distributivi, fino ad arrivare alla campagna marketing adottata per pubblicizzare l’uscita delle tre stagioni. Nel secondo capitolo viene presentata una panoramica delle tematiche che hanno determinato il successo di Dark, cercando di approfondire i diversi livelli di lettura che la serie offre all’interno della trama, talvolta solo accennati e difficoltosi da decifrare per il fruitore. Il terzo ed ultimo capitolo si concentra sulla ricezione che la serie Dark ha avuto a livello globale e sulla storia della televisione tedesca, analizzando come i paradigmi produttivi e distributivi siano mutati con l’avvento delle piattaforme di streaming.
Resumo:
L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.
Resumo:
L'incidenza complessiva dell'insufficienza cardiaca a livello globale sta aumentando, sia a causa della crescente aspettativa di vita per i pazienti che ricevono una diagnosi, sia per un progressivo invecchiamento della popolazione. Nonostante i continui progressi clinici, questa patologia continua ad avere una alta mortalità e a causare una forte sintomatologia nei pazienti che ne sono affetti. Per questo motivo e per il forte peso che questa patologia ha sulla sanità si è reso necessario cercare di prevenire eventi di scompenso cardiaco o di peggioramento della condizione di insufficienza cardiaca. Questo elaborato si sofferma inizialmente sull'insufficienza cardiaca, sulla sua patologia, le sue classificazioni, la sua epidemiologia e sui dispostivi impiantabili utilizzati nel trattamento di quest'ultima. Successivamente sono stati analizzati cinque studi clinici longitudinali, di cui uno monoparametrico e gli altri multiparametrici, caratterizzati dal monitoraggio remoto di alcuni parametri vitali con l'obiettivo di individuare, e quindi prevenire, eventi avversi o un peggioramento della condizione di insufficienza cardiaca.
Resumo:
Negli ultimi decenni, il riscaldamento globale, causato dall’emissioni di gas serra in atmosfera, ha spinto i governi ad agire verso una progressiva sostituzione della generazione elettrica da fonte fossile con quella da rinnovabile. La non programmabilità di alcune fonti rinnovabili ha reso necessario l’utilizzo di tecnologie di accumulo dell’energia elettrica. In particolare, la produzione di idrogeno sembra essere una valida soluzione, ma il suo stoccaggio è uno dei principali ostacoli alla sua diffusione. Tra i diversi metodi di stoccaggio, quello più promettente è quello in idruri metallici. Affinché questa tecnologia diventi competitiva, è però necessario migliorare la cinetica della reazione di assorbimento/desorbimento dell’idrogeno nel sito metallico, attraverso una migliore gestione del calore prodotto/richiesto dalla reazione. In questo contesto, la presente tesi ha come obiettivo l’ottimizzazione del processo di carica di bombole agli idruri metallici, situate all’interno di una microgrid per la generazione e l’accumulo di energia da fotovoltaico, attraverso lo sviluppo di un sistema di controllo della temperatura delle bombole, e la realizzazione di prove sperimentali per valutare i reali benefici che esso comporta, in termini di capacità di stoccaggio e velocità di assorbimento dell’idrogeno. Dopo aver presentato il contesto energetico, lo stato dell’arte degli idruri metallici e la microgrid in cui sono situate le bombole, sono state descritte due versioni diverse del sistema ideato: una versione definitiva, che potrà essere realizzata per eventuali studi futuri, e una versione semplificata, che è stata poi realizzata in laboratorio. È stato descritto nel dettaglio il setup sperimentale, realizzato per svolgere le prove sul processo di carica della bombola, e sono stati poi riportati e confrontati i risultati ottenuti nel caso in cui non si è fatto uso del prototipo e quelli ottenuti nel caso in cui viene invece utilizzato per raffreddare la bombola.
Resumo:
Lo scopo del presente lavoro è quello di determinare una metodologia di analisi vibroacustica di validità generale applicabile a tutti i casi nei quali la forzante sia di tipo vibrazionale. Nello specifico si è analizzato il comportamento strutturale e acustico di un impianto di scarico di una monoposto Formula SAE. Ricorrendo all’analisi FEM (Finite Element Method) è possibile determinare e quantificare gli effetti dannosi causati dalle vibrazioni già nella fase di prototipazione permettendo una sostanziale riduzione dei tempi e costi. La determinazione del comportamento strutturale del modello alle vibrazioni è iniziata dall’analisi modale, grazie alla quale sono state determinate le frequenze naturali e i modi propri dell’impianto di scarico. Successivamente, l’analisi FRF (Frequency Response Function) ha permesso di conoscere la risposta del nostro sistema ad una forzante imposta mettendo in luce le diverse criticità strutturali. Con il presupposto di ottenere delle condizioni di carico che fossero il più vicine possibili alle normali condizioni operative si è impostata un’analisi PSD (Power Spectral Density). Per concludere la prima parte dell’analisi si è reso necessario indagare anche il comportamento a fatica vibrazionale, valutando in questo modo le zone soggette a vita finita e quindi le prime a cedere in fase di esercizio. La parte finale è stata dedicata all’analisi del rumore. Dall’analisi FRF si è determinata la SPL (Sound Pressure Level) ottenendo come output un valore di pressione sonora prodotto dall’effetto della propagazione delle onde di pressione generate dalla vibrazione strutturale dell’impianto di scarico. Infine, l’analisi di Transmission Loss ha permesso di valutare l’efficacia della geometria del silenziatore sulla riduzione del livello acustico generato dal transito dei gas di scarico alle diverse frequenze.