194 resultados para teoria dei nodi esperimento didattico
Resumo:
L’adroterapia è un tipo di terapia oncologica in cui il tumore è irraggiato con particelle cariche (adroni) quali protoni e ioni carbonio. Il vantaggio principale rispetto alla radioterapia convenzionale a raggi X consiste nel fatto che l’irraggiamento con adroni non coinvolge i tessuti sani circostanti quelli malati. Tuttavia, si conosce ancora poco sui processi di frammentazione nucleare che avvengono tra gli adroni del fascio usato nel trattamento e i nuclei presenti nel corpo umano. Così, nel 2017 nasce l’esperimento FOOT (FragmentatiOn Of Target) con lo scopo di misurare le sezioni d’urto differenziali dei frammenti nucleari prodotti nell’interazione a energie di 200-400 MeV/u (tipicamente impiegate in adroterapia). Attualmente l’apparato sperimentale di FOOT è in grado di compiere misure accurate solo per frammenti carichi, ma nell’ultimo anno si è cominciata ad esplorare la possibilità di rivelare anche i neutroni. Per questa operazione è necessario servirsi di scintillatori liquidi affiancati ad un sistema di veto costituito da scintillatori plastici sottili accoppiati a sensori che segnalano il passaggio di eventuali frammenti carichi. In una precedente campagna di misure con la collaborazione FOOT, si sono utilizzati come sensori dei tubi fotomoltiplicatori (PMT). Per migliorare le prestazioni del sistema di veto si è reso necessario l’utilizzo di scintillatori plastici veloci, letti da sensori fotomoltiplicatori al silicio (SiPM). In questa tesi mi sono occupato della risoluzione temporale dei segnali acquisiti con scintillatori plastici EJ-204 di 3 mm di spessore, letti da SiPM SenseL®.
Resumo:
L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.
Resumo:
In questa tesi è presentato il lavoro svolto per ottimizzare le selezioni dei decadimenti Λ 0 b → pK− e Λ 0 b → pπ− al fine di misurarne le asimmetrie di CP. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 6 fb−1, raccolto dall'esperimento LHCb in collisioni protone-protone ad un'energia nel centro di massa di 13 TeV. L'ottimizzazione della selezione è di fondamentale importanza nello studio di questi decadimenti, per ottenere la minor incertezza statistica possibile sulle asimmetrie misurate. Il lavoro svolto in questa tesi ha portato ad avere incertezze statistiche sulle singole asimmetrie di CP pari a: σ(A pK CP ) = 0.76%, σ(A pπ CP) = 0.95%, che risultano essere minori di circa un fattore due rispetto ai risultati già pubblicati dalla Collaborazione LHCb. Il lavoro svolto in questa tesi sarà parte della pubblicazione dei risultati ottenuti su rivista internazionale, prevista per il 2023
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.
Resumo:
L’obiettivo di questa tesi consiste nel progetto e nella realizzazione di un PCB (Printed Circuit Board) per la gestione di micropotenze per nodi sensori energeticamente autonomi, implementato con software di progettazione CAD. In primo luogo è affrontato il tema dell’ Energy Harvesting, sono descritte le tipologie di fonti energetiche principali previste e le prospettive future di questa nuova tecnologia. In secondo luogo sono descritti i processi e i meccanismi per la conversione dell’energia, con un particolare sguardo ai circuiti integrati per la conversione e gestione della potenza (PMIC). Successivamente vengono illustrate le fasi del progetto, basato su un PMIC commerciale: la progettazione dello schema elettrico, la scelta dei componenti (BOM - Bill of Materials) e la progettazione del layout del circuito stampato. Infine sono mostrati il processo di montaggio della scheda e i test realizzati mediante oscilloscopio insieme ad alcune stime di potenza.
Resumo:
L'elaborato parte da una scheda di sviluppo commerciale per arrivare a realizzare una rete LoRaWAN comprensiva di End-Node, Gateway e Application Server. In maniera specifica, l'elaborato affronta il problema della progettazione di end-node a micropotenze. Dopo aver studiato e collaudato la piattaforma di sviluppo, è stata affrontata la problematica dell'ottimizzazione energetica a diversi livelli: scelta di componenti con correnti di perdita estremamente ridotte, tecniche di power gating temporizzato, comportamento adattativo del nodo, impostazione dei consumi del nodo mediante i server della rete. L'elaborato presenta infine il layout del PCB progettato, pronto per la fabbricazione, insieme a stime del tempo di vita dell'end-node in funzione della frequenza di trasmissione e della capacità delle batterie utilizzate.
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
Il lavoro presentato in questa tesi analizza il comportamento elettrico di prototipi di sensori Low-Gain Avalanche Detector (LGAD) ultrasottili. L'analisi consiste in una verifica sperimentale delle caratteristiche attese di questi sensori, che sono stati selezionati come possibili candidati per la realizzazione del sistema di Time-Of-Flight (TOF) nell'esperimento ALICE 3. Concepito come evoluzione dell'esperimento ALICE attualmente in funzione al CERN, ALICE 3 rappresenta l'archetipo di una nuova generazione di esperimenti nella fisica delle collisioni di ioni pesanti, ed è previsto iniziare la propria attività di presa dati per LHC Run 5 nel 2032. Sono stati presi in considerazione 22 campioni di LGAD, di cui 11 provenienti dal wafer di produzione 5 (spessore 25 um) e gli altri 11 dal wafer 6 (spessore 35 um). In entrambi i casi, di questi 11 sensori, 6 sono campioni in configurazione LGAD-PIN e 5 sono matrici. Tutti e 22 i campioni sono stati sottoposti a misure di corrente in funzione del voltaggio, mentre solo quelli appartenenti al wafer 5 anche a misure di capacità. L'obiettivo è quello di misurare la caratteristica IV e CV per ognuno dei campioni e da queste estrarre, rispettivamente, tensione di breakdown e profilo di doping.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.
Resumo:
La financial literacy viene definita dall’Ocse come il processo per mezzo del quale i cittadini migliorano la loro comprensione su prodotti finanziari, i concetti ad essi correlati e i rischi associati e, attraverso l’informazione, l’istruzione e consigli oggettivi, sviluppano le capacità e la fiducia nella propria consapevolezza dei rischi e delle opportunità finanziarie, di sapere dove chiedere aiuto, e intraprendere altre azioni efficaci per migliorare il proprio benessere economico. Attraverso una contestualizzazione sociale, scolastica e metodologica, il lavoro di tesi si propone di indagare i livelli di financial literacy tra gli studenti di quattro classi superiori di diverso grado. Una prima indagine avviene attraverso un pre-test sulle conoscenze finanziarie, cultura e rapporto affettivo con il mondo finanziario. Successivamente viene proposto un percorso composto da tre attività originali riguardanti il “gioco in borsa”, la pianificazione e il futuro, e le leggi finanziarie. Si analizzano: l’applicazione di conoscenze matematiche, i ragionamenti e gli atteggiamenti degli studenti nelle quattro classi.
Resumo:
L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.