222 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
L’elaborazione di quantità di dati sempre crescente ed in tempi ragionevoli è una delle principali sfide tecnologiche del momento. La difficoltà non risiede esclusivamente nel disporre di motori di elaborazione efficienti e in grado di eseguire la computazione coordinata su un’enorme mole di dati, ma anche nel fornire agli sviluppatori di tali applicazioni strumenti di sviluppo che risultino intuitivi nell’utilizzo e facili nella messa in opera, con lo scopo di ridurre il tempo necessario a realizzare concretamente un’idea di applicazione e abbassare le barriere all’ingresso degli strumenti software disponibili. Questo lavoro di tesi prende in esame il progetto RAM3S, il cui intento è quello di semplificare la realizzazione di applicazioni di elaborazione dati basate su piattaforme di Stream Processing quali Spark, Storm, Flinke e Samza, e si occupa di esaudire il suo scopo originale fornendo un framework astratto ed estensibile per la definizione di applicazioni di stream processing, capaci di eseguire indistintamente sulle piattaforme disponibili sul mercato.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
La tesi è stata finalizzata allo studio delle caratteristiche qualitative e tecnologiche delle carni di polli appartenenti alle principali categorie commerciali presenti in Italia: pollo leggero allevato all’aperto (PLA, 1,8-2 kg), medio convenzionale (PMC, 2,5-2,8 kg) e pesante convenzionale (PPC, 3,5-3,8 kg). Da un totale di 12 lotti di carne avicola, sono stati selezionati 50 muscoli Pectoralis major/lotto (n=600) e sono suddivisi in 3 gruppi sperimentali corrispondenti alle categorie commerciali. Sul totale dei campioni è stata valutata l’incidenza delle principali anomalie della carne avicola: 25 petti/lotto sono stati utilizzati per la misurazione del pH, colore, drip e cooking loss e sforzo di taglio, i restanti sono stati destinati alla valutazione dello stato ossidativo della carne. L’incidenza e la gravità delle miopatie White Striping e Wooden Breast è risultata nettamente inferiore in PLA, rispetto a PMC e PCC, mentre non è stata osservata alcuna differenza significativa nell’incidenza di petti affetti da Spaghetti Meat. Il gruppo PLA ha fatto registrare valori di pH significativamente inferiori rispetto alle altre categorie, senza riflessi negativi sui parametri tecnologici della carne. La capacità di ritenzione idrica è risultata infatti più elevata nel gruppo PLA, come comprovato dai valori inferiori di drip e cooking loss rispetto ai gruppi PMC e PPC. I campioni del gruppo PLA hanno presentato differenze significative per quanto riguarda il colore, con particolare riferimento all’intensità dell’indice di giallo (b*) risultata superiore (P<0,01) rispetto alle altre categorie commerciali. Al contrario, il gruppo PPC ha mostrato livelli inferiori di ossidazione proteica e lipidica. In virtù di quest’ultimo aspetto, le carni della categoria commerciale PPC potrebbero essere destinate alla preparazione di prodotti a base di carne, mentre quelle del PPM presentano caratteristiche più favorevoli per la produzione di sezionati e preparazioni di carne.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Nella presente tesi è discusso il fenomeno dell’ entanglement quantistico, che si manifesta come correlazione nei risultati delle misure di sistemi aperti, in precedenza localmente interagenti, indipendentemente da quella che è la loro distanza spaziale. Il celebre teorema di Bell esclude la possibilità che l’ entanglement possa essere descritto mediante una teoria di variabili nascoste locale. Si indaga allora l’ipotesi che particelle che si muovono a velocità super-luminali (tachioni), non vietate dalla Relatività, possano intervenire nella spiegazione fisica dell’ entanglement. In particolare, si presenta un’ interpretazione alternativa del noto paradosso di Tolman che riguarda i tachioni, tramite la quale è possibile ricostruire la sovrapposizione quantistica di stati della coppia entangled EPR, come associata a loop di tachioni scambiati tra i due sistemi.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel descrivere sia il processo necessario per la creazione di osservazioni sintetiche di galassie simulate simili alla Via Lattea nella riga di emissione a 21 cm dell'idrogeno neutro (HI), sia il lavoro di analisi fondamentale che serve a confrontare in modo efficace l'output generato con delle osservazioni di galassie reali. Come prima cosa è descritta la teoria quantistica che sta alla base dell'emissione a 21 cm di HI, illustrando l'importanza di tale riga di emissione nell'ambito dell'astronomia e come si possano ottenere informazioni fondamentali sulle sorgenti di questa radiazione a partire dai dati osservativi. Il lavoro poi si focalizza sull'utilizzo del software MARTINI per la creazione di osservazioni sintetiche della linea a 21 cm per una galassia simulata con proprietà simili alla Via Lattea generata utilizzando il modello numerico SMUGGLE. Infine, si passa ad una breve descrizione dell'analisi dei dati sintetici creati, e al loro confronto con dei dati provenienti da osservazioni reali di galassie con proprietà simili, per ottenere una valutazione qualitativa della bontà del modello SMUGGLE impiegato nella simulazione numerica.
Resumo:
Questa tesi intende approfondire da un punto di vista, sia teorico sia computazionale, le proprietà fondamentali dei fononi. A tal fine, sono presentati i modelli quantistici di Einstein e di Debye che permettono la derivazione analitica degli osservabili macroscopici principali di un solido, come l’energia media e la capacità termica. Ciò è possibile tramite una trattazione meccano-statistica basata sull’approssimazione armonica dei modi normali di vibrazione degli ioni reticolari. Quindi, all’inizio si mostrano brevemente i risultati principali riguardanti l’oscillatore armonico quantistico. Successivamente, si approfondiscono i temi della dispersione fononica e della densità degli stati vibrazionali per reticoli cristallini 1D e 3D. Si ottiene che la prima non può essere considerata lineare se non nel limite di alte lunghezze d’onda, e che la seconda può presentare punti di singolarità correlati alla forma della relazione di dispersione. Infine, sono state svolte alcune analisi computazionali ab initio relative alla dispersione fononica, la densità degli stati vibrazionali e la frequenza di Debye del Carbonio (diamante) tramite i programmi VASP e Phonopy, confrontando i risultati con dati sperimentali presenti in letteratura.
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
L’obiettivo di questa tesi consiste nel progetto e nella realizzazione di un PCB (Printed Circuit Board) per la gestione di micropotenze per nodi sensori energeticamente autonomi, implementato con software di progettazione CAD. In primo luogo è affrontato il tema dell’ Energy Harvesting, sono descritte le tipologie di fonti energetiche principali previste e le prospettive future di questa nuova tecnologia. In secondo luogo sono descritti i processi e i meccanismi per la conversione dell’energia, con un particolare sguardo ai circuiti integrati per la conversione e gestione della potenza (PMIC). Successivamente vengono illustrate le fasi del progetto, basato su un PMIC commerciale: la progettazione dello schema elettrico, la scelta dei componenti (BOM - Bill of Materials) e la progettazione del layout del circuito stampato. Infine sono mostrati il processo di montaggio della scheda e i test realizzati mediante oscilloscopio insieme ad alcune stime di potenza.
Resumo:
L’importanza sempre crescente dell’elettronica è accompagnata da una crescente necessità di compattezza ed efficienza energetica. Una parte sostanziale del costo e delle dimensioni dei moderni dispositivi elettronici è legata ai sistemi di conversione di potenza, il cui volume è dominato dai passivi. Per poter affrontare la miniaturizzazione dei circuiti elettronici di potenza sono dunque necessari metodi di design e tecnologie che permettano di ridurre i requisiti di immagazzinamento di energia. Un possibile approccio è aumentare la frequenza di commutazione nel range delle decine di MHz facendo in modo che l’efficienza non venga penalizzata dall’aumento delle perdite in commutazione. Ciò è reso possibile dall’impiego di topologie di convertitori risonanti che implementano la condizione ZVS. Oltre all’impiego di convertitori risonanti, l’aumento della frequenza operativa, mantenendo elevata l’efficienza, è abilitato dall’impiego di dispositivi a semiconduttore a largo band-gap come il nitruro di gallio (GaN), i quali mostrano performance superiori al silicio in termini di temperature operative, frequenze di funzionamento e densità di potenza. Inoltre, ad elevate frequenze di commutazione, l’utilizzo di magnetici coreless diventa una valida alterativa ai magnetici tradizionali, con vantaggi in termini di costo, ingombro e di efficienza. Il focus di questa tesi è il progetto di un convertitore DC-DC risonante con isolamento coreless ad alta efficienza e ad alta frequenza in tecnologia GaN a 650 V pensato per applicazioni wall-adapter. A seguito dello studio di alcune topologie di inverter risonanti e dei rispettivi rettificatori, si è scelta la topologia phi2 per il design del convertitore DC-DC double phi2 isolato (simulato con LTspice). È stato poi effettuato il design di un trasformatore coreless su PCB tramite simulatore elettromagnetico (ADS Keysight Momentum). Il convertitore complessivo presenta un’efficienza del 95,8% con una efficienza del link del 98%.
Resumo:
L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.
Resumo:
L'efficienza dei computer ha un limite inferiore dettato dal principio di Landauer. La distruzione di una qualsiasi informazione ha un costo energetico per la dissipazione dei bit che la formavano. L'unico modo per aggirare il principio di Landauer è attraverso la reversibilità. Questa tecnica di computazione ci permette di eseguire un programma senza dover distruggere informazioni e quindi, senza dissipare bit. Molti algoritmi ai giorni nostri hanno un grande impatto energetico sul mondo, ed uno di questi è SHA256, l'algoritmo usato nella block-chain di Bitcoin. Questa tesi si pone l'obbiettivo di analizzare il consumo energetico e di memoria di una implementazione di SHA256 reversibile ideale.
Resumo:
I Phase-Locked Loops sono circuiti ancora oggi utilizzati per la generazione di segnali coerenti in frequenza e in fase con i segnali in ingresso, motivo per cui sono uno degli strumenti della radio scienza per la ricostruzione dei segnali scambiati con le sonde e nascosti dal rumore accumulato nel tragitto che separa le sonde stesse dalle stazioni di tracking a terra. Questa tesi illustra l'implementazione di un PLL digitale linearizzato in Matlab e Simulink in una nuova veste rispetto al modello implementato durante l'attività di tirocinio curricolare, al fine di migliorarne le prestazioni per bassi carrier-to-noise density ratios. Il capitolo 1 si compone di due parti: la prima introduce all'ambito nel quale si inserisce il lavoro proposto, ossia la determinazione d'orbita; la seconda illustra i fondamenti della teoria dei segnali. Il capitolo 2 è incentrato sull'analisi dei Phase-Locked Loops, partendo da un'introduzione teorica e approdando all'implementazione di un modello in Simulink. Il capitolo 3, infine, mostra i risultati dell'applicazione del modello implementato in Simulink nell'analisi dei segnali di una missione realmente svolta.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.