255 resultados para sensori
Resumo:
L’Electron Ion Collider (EIC) è un futuro acceleratore di particelle che ha l’obiettivo di approfondire le nostre conoscenze riguardo l’interazione forte, una delle quattro interazioni fondamentali della natura, attraverso collisioni di elettroni su nuclei e protoni. L’infrastruttura del futuro detector comprende un sistema d’identificazione basato sull’emissione di luce Cherenkov, un fenomeno che permette di risalire alla massa delle particelle. Una delle configurazioni prese in considerazione per questo sistema è il dual-radiator RICH, basato sulla presenza di due radiatori all’esterno dei quali si trovano dei fotorivelatori. Un’opzione per questi sensori sono i fotorivelatori al silicio SiPM, oggetto di questo lavoro di tesi. L’obiettivo dell’attività è lo studio di un set-up per la caratterizzazione della risposta di sensori SiPM a basse temperature, illuminati attraverso un LED. Dopo un’analisi preliminare per determinare le condizioni di lavoro, si è trovato che la misura è stabile entro un errore del 3.5%.
Resumo:
L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.
Resumo:
DUNE (Deep Underground Neutrino Experiment) è un esperimento internazionale attualmente in costruzione al laboratorio Fermilab in Illinois, Stati Uniti. Il suo scopo sarà quello di studiare alcuni dei fenomeni e quesiti aperti che riguardano i neutrini: particelle debolmente interagenti facenti parte del Modello Standard. In particolare DUNE intende studiare il fenomeno dell'oscillazione di sapore dei neutrini, osservare neutrini provenienti da supernove e stelle di neutroni per studiarne la formazione e ricercare l'eventuale decadimento dei protoni. L'esperimento sarà formato da due siti sperimentali distanti circa 1300 km tra loro: il Near Detector situato a Fermilab ed il Far Detector, situato al Sanford Underground Research Facility (SURF) in South Dakota. Questa tesi è rivolta in particolare al sistema di fotorivelazione del Far Detector, che utilizza fotomoltiplicatori al silicio (Silicon Photomultipliers, o SiPM). Questi dispositivi dovranno funzionare in condizioni criogeniche in argon liquido, perciò è stata avviata un'intensiva campagna di test volta alla caratterizzazione e validazione dei sensori che saranno montati nell'apparato. La sezione INFN di Bologna è coinvolta in questa campagna e dovrà testare una parte dei SiPM destinati all'impiego in DUNE. A tale scopo è stato realizzato, nei laboratori INFN, un sistema per il test di tali dispositivi in criogenia su larga scala. L'attività di tesi ha previsto la caratterizzazione di diversi SiPM sia a temperatura ambiente sia in criogenia e l'analisi delle distribuzioni statistiche dei parametri di diversi campioni di SiPM.
Resumo:
Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.
Resumo:
La malattia di Parkinson, seconda tra le malattie degenerative più comuni, ha basato per anni la diagnosi e le valutazioni terapeutiche su scale di misura soggettive, di modesta accuratezza e limitate all’utilizzo clinico. Per questo motivo, alla luce di nuove tecnologie emergenti ed efficaci, questa tesi si propone di analizzare lo stato dell’arte dei dispositivi indossabili per la ricerca sul Parkinson e i suoi disturbi. Dopo una breve introduzione, la narrazione prende avvio, nel primo capitolo, con la descrizione della malattia seguita dai trattamenti curativi più utilizzati. Nel secondo capitolo verranno trattati i metodi di diagnosi, a partire dalle scale di valutazione qualitative per poi proseguire con una breve rassegna dei componenti e dei nuovi sensori utilizzabili per ottenere misurazioni quantitative. Questa descrizione sarà fondamentale per poter comprendere il funzionamento dei dispositivi che verranno successivamente citati. Il terzo capitolo si focalizza sulla sintomatologia del Parkinson e sulla rassegna dei dispositivi innovativi destinati alla diagnosi, al monitoraggio e alla cura, partendo dai sintomi motori più comuni ed evidenti, fino ad arrivare alle manifestazioni non motorie silenziose e subdole. Infine, la tesi si focalizzerà in particolar modo sul sonno. Dopo un’analisi della struttura del sonno, si tratteranno le metodiche più utilizzate fino ad oggi per lo studio dei disturbi notturni. Successivamente si proporranno alcuni nuovi dispositivi indossabili innovativi e li si metterà a confronto con i metodi tradizionali per analizzarne le potenzialità, gli svantaggi e i possibili sviluppi futuri. La tesi, nel suo complesso, si pone l’obiettivo di illustrare come, nella ricerca sul Parkinson, lo sviluppo di nuove tecnologie indossabili possa rappresentare un punto di svolta e di sostegno per la valutazione, la diagnosi, la cura della malattia per i clinici, i pazienti e chi se ne prende cura.
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.
Resumo:
Negli ultimi anni l’evoluzione tecnologica ha avuto un incremento esponenziale; ogni anno, numerose innovazioni, hanno portato notevoli cambiamenti sulla vita dei consumatori e sul modo in cui essi interagiscono. Al giorno d’oggi, la tecnologia ha raggiunto livelli tali da renderne necessario l’utilizzo per poter soddisfare vari tipi di bisogni. In questa situazione, lo sviluppo di Internet ha consentito di poter entrare in una nuova era, quella dell’Internet of Things (IoT). Questo nuovo modello sarebbe in grado di portare grossi benefici nella vita di tutte le persone, partendo dalle grandi aziende, fino ad arrivare ai singoli consumatori. L’idea di questo progetto di tesi è di posizionare un dispositivo, in grado di poter rilevare temperatura ed umidità dell’ambiente, nei locali universitari nei quali sono immagazzinati i libri, in modo tale da poter monitorare l’andamento termico degli spazi ed eventualmente effettuare delle operazioni di ripristino della temperatura e dell’umidità per evitare il danneggiamento e il deterioramento dei materiali. In questo documento di tesi andremo ad approfondire l’implementazione del dispositivo IoT in grado di rilevare i dati dell’ambiente. Nello specifico analizzeremo l’ambito applicativo di questo dispositivo, l’implementazione del sistema su una scheda Raspberry Pi 4, sfruttando anche un componente aggiuntivo contenente in sensori necessari al funzionamento del sistema, e vedremo nello specifico anche l’implementazione della pagina Web creata per la visualizzazione dei dati. Negli ultimi anni abbiamo vissuto una grande crisi a livello sanitario e oggi stiamo passando un periodo di difficoltà economica dovuta all’aumento del costo di alcune materie prime quali elettricità e gas. I futuri sviluppi su questo progetto potrebbero portare a risolvere in piccolo alcuni di questi problemi.
Resumo:
Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.
Resumo:
I sensori a fibre ottiche rappresentano una delle tecnologie più promettenti per il monitoraggio di varie strutture ingegneristiche. Tali sensori, dopo che sono stati incollati su differenti tipologie di strutture grazie a un dispositivo optoelettronico, restituiscono il profilo di deformazione del materiale ospite. Tuttavia, risulta piuttosto complicato ottenere queste curve, in quanto sono necessari numerosi provini che richiedono spese onerose e molto tempo per i singoli esperimenti. In più, si deve tenere in considerazione che i provini non sono mai completamente identici e che l’operatore può commettere errori. In questo studio si genera un programma attraverso cui si simulano diversi andamenti di deformazione, cercando di riprodurre al meglio i vari casi sperimentali. Infine, utilizzando un codice già esistente, si ricavano le curve di probabilità di rilevamento del danno in funzione della lunghezza di cricca. Una volta creato il codice, si modificano alcuni parametri, in particolare si alterano lo shear lag e alcune caratteristiche meccaniche della fibra ottica, ovvero il raggio e il modulo di Young, per vedere l’influenza che hanno sulle curve di probabilità. I risultati hanno dimostrato che lo shear lag della fibra ottica deve essere il più possibile alto e di conseguenza il raggio e il modulo di Young della fibra devono essere bassi, in quanto quest’ultimi si trovano a denominatore della formula usata per calcolare lo shear lag.
Resumo:
L'elaborato analizza, in maniera generica, come avviene la produzione, lo stoccaggio ed il trasporto dell'idrogeno e valuta i mezzi che sfruttano l'idrogeno come combustibile: i veicoli a fuel cell e i veicoli con motori a combustione interna alimentati a idrogeno (H2ICE). Poiché le proprietà dell'idrogeno sono molto diverse rispetto a quelle dei combustibili convenzionali, queste nuove tecnologie necessitano di celle di prova appositamente progettate e dimensionate. L'elaborato, pertanto, descrive nel dettaglio quali sono le normative, le strumentazioni e gli standard da rispettare per garantire che, all'interno della sala, i test possano essere eseguiti in totale sicurezza. Inoltre, vengono esaminati i sistemi di consegna e dosaggio dell'idrogeno, passando poi al sistema di ventilazione che gioca un ruolo fondamentale nel funzionamento dei test. Infine, sono riportati esempi di specifici set-up sperimentali volti allo studio delle problematiche riscontrate nei motori a combustione interna alimentati a idrogeno. Nel primo set-up, vengono descritti i sistemi di controllo, il tipo di motore e tutti i sensori utilizzati per analizzare l'impatto che ha l'EGR sui motori H2ICE; mentre, nel secondo, vengono esaminati i fattori che inducono la detonazione e la relativa frequenza.
Resumo:
Nel presente documento si discute la progettazione di una guida lineare curva allo scopo di permettere la movimentazione di un simulatore di Sole per nanosatelliti. Vengono presentati i nanosatelliti e vengono introdotti alcuni metodi di rappresentazione d’assetto, per proseguire con una descrizione dei sensori di Sole per la determinazione d’assetto. Si descrive, poi, il banco di prova per il controllo e la determinazione d’assetto presente nel Laboratorio di Microsatelliti e Microsistemi Spaziali e, di seguito, il progetto delle guide con il confronto tra le opzioni commerciali disponibili. Infine, si descrive la progettazione degli elementi di collegamento tra il simulatore e i cursori.
Resumo:
Nel corso degli ultimi decenni sono stati eseguiti diversi esperimenti volti alla misura della lunghezza di scattering neutrone-neutrone, ma alcuni risultati si sono rivelati discordanti e ad oggi essa è ancora nota con insufficiente precisione, a causa della complessità del problema sia dal punto di vista teorico che sperimentale. Una migliore conoscenza di questa grandezza può fornire importanti informazioni sulla natura dei nucleoni e sulle loro interazioni. È stato quindi proposto un esperimento volto alla misura della lunghezza di scattering neutrone-neutrone al CERN di Ginevra, presso la facility n_TOF, sfruttando gli aggiornamenti apportati alle aree sperimentali e alla sorgente di neutroni negli ultimi anni. L'esperimento prevede di utilizzare la reazione di breakup del deuterio tramite l'impiego di un target attivo, composto da un bersaglio di stilbene deuterato (stilbene-d12) che funge anche da materiale scintillatore. Per verificare la fattibilità dell'esperimento sono stati eseguiti dei test preliminari presso la facility del National Center for Scientific Research (NCSR) Demokritos, irradiando il target attivo con neutroni e raggi γ a diverse energie e utilizzando due tipi diversi di sensori fotomoltiplicatori al silicio (SiPM) nel sistema di rivelazione. In questa tesi sono stati analizzati dei segnali provenienti da questi test, valutando la possibilità di eseguire discriminazione n/γ sfruttando la tecnica della Pulse Shape Discrimination (PSD).