217 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
I neuroni in alcune regioni del nostro cervello mostrano una risposta a stimoli multisensoriali (ad es. audio-visivi) temporalmente e spazialmente coincidenti maggiore della risposta agli stessi stimoli presi singolarmente (integrazione multisensoriale). Questa abilità può essere sfruttata per compensare deficit unisensoriali, attraverso training multisensoriali che promuovano il rafforzamento sinaptico all’interno di circuiti comprendenti le regioni multisensoriali stimolate. Obiettivo della presente tesi è stato quello di studiare quali strutture e circuiti possono essere stimolate e rinforzate da un training multisensoriale audio-visivo. A tale scopo, sono stati analizzati segnali elettroencefalografici (EEG) registrati durante due diversi task di discriminazione visiva (discriminazione della direzione di movimento e discriminazione di orientazione di una griglia) eseguiti prima e dopo un training audio-visivo con stimoli temporalmente e spazialmente coincidenti, per i soggetti sperimentali, o spazialmente disparati, per i soggetti di controllo. Dai segnali EEG di ogni soggetto è stato ricavato il potenziale evento correlato (ERP) sullo scalpo, di cui si è analizzata la componente N100 (picco in 140÷180 ms post stimolo) verificandone variazioni pre/post training mediante test statistici. Inoltre, è stata ricostruita l’attivazione delle sorgenti corticali in 6239 voxel (suddivisi tra le 84 ROI coincidenti con le Aree di Brodmann) con l’ausilio del software sLORETA. Differenti attivazioni delle ROI pre/post training in 140÷180 ms sono state evidenziate mediante test statistici. I risultati suggeriscono che il training multisensoriale abbia rinforzato i collegamenti sinaptici tra il Collicolo Superiore e il Lobulo Parietale Inferiore (nell’area Area di Brodmann 7), una regione con funzioni visuo-motorie e di attenzione spaziale.
Resumo:
Con il seguente lavoro di tesi si propone un excursus dell’evoluzione della tecnica che ha permesso l’amplificazione del DNA in laboratorio, spiegandone i principi elementari di base. La scoperta che il DNA è il depositario dell’informazione genica ha aperto la strada a una nuova disciplina: la biologia molecolare, dove molte delle tecniche utilizzate limitano le funzioni naturali degli acidi nucleici. Dalla sua introduzione, la tecnologia PCR ha modificato il modo nel quale l’analisi del DNA viene condotta nei laboratori di ricerca e di diagnostica. Con lo scopo di rilevare direttamente sequenze genomiche specifiche in un campione biologico nasce l’esigenza di avere a disposizione metodologie con un’elevata soglia di sensibilità e specificità. Il primo capitolo di questo elaborato introduce la PCR nella sua prima formulazione. A partire da quantità estremamente ridotte di DNA, questa tecnica di amplificazione in vitro, consente di ottenere rapidamente milioni di molecole identiche della sequenza bersaglio di acido nucleico. A seguire, nel secondo capitolo, verrà trattata un’implementazione della PCR: la real-time PCR. La RT-PCR, introduce nuove opportunità poiché rende possibile la misurazione diretta e la quantificazione della reazione mentre è in atto. Con l’utilizzo di molecole fluorescenti che vengono incorporate nel prodotto in formazione o che si intercalano alla doppia elica, si può monitorare la formazione del prodotto di amplificazione in tempo reale seguendone l’assorbimento con un sistema spettrofotometrico, in un sistema automatizzato che provvede anche alle routine della PCR. Nel terzo e ultimo capitolo si analizza una nuova tecnologia recentemente commercializzata: la PCR in formato digitale. Verranno prese in esame essenzialmente due metodologie, la dPCR su chip e la ddPCR (Droplet Digital Polymerase Chain Reaction).
Resumo:
La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.
Resumo:
La tesi descrive la stimolazione magnetica transcranica, un metodo di indagine non invasivo. Nel primo capitolo ci si è soffermati sull’ anatomia e funzionalità del sistema nervoso sia centrale che periferico e sulle caratteristiche principali delle cellule neuronali. Nel secondo capitolo vengono descritte inizialmente le basi fisico-tecnologiche della strumentazione stessa, dando particolare attenzione ai circuiti che costituiscono gli stimolatori magnetici ed alle tipologie di bobine più utilizzate. Successivamente si sono definiti i principali protocolli di stimolazione evidenziandone le caratteristiche principali come, ampiezza, durata e frequenza dell’impulso. Nel terzo capitolo vengono descritti i possibili impieghi della stimolazione in ambito sperimentale e terapeutico. Nel quarto ed ultimo capitolo si evidenziano i limiti, della strumentazione e dell’analisi che la stessa permette, andando a definire i parametri di sicurezza, i possibili effetti indesiderati, il costo dell’apparecchiatura e l’uso combinato con altre tecniche specifiche
Resumo:
Il piede, con la sua complessa struttura anatomica, permette la stabilità e la deambulazione e per questo risulta fondamentale studiarne l’anatomia, la morfologia e la biomeccanica. La Pedana Baropodometrica è uno strumento che misura le pressioni plantari e permette di stimare alcuni parametri morfologici e funzionali del piede in modo veloce e relativamente economico. Lo Scanner Plantare 3D permette di acquisire in tempi brevi la geometria del piede creandone un modello tridimensionale digitale. Queste qualità hanno agevolato la diffusione di questi strumenti nella produzione di ortesi plantari su misura e, dato il crescente interesse del mercato verso le tematiche di customizzazione, alla loro commercializzazione su larga scala. Per ammortizzare i costi, tuttavia, questi strumenti sono spesso basati su tecnologie low-cost. Lo scopo dello studio svolto in questa tesi è quello di determinare la bontà e l’accuratezza di alcuni parametri morfologici e funzionali del piede acquisiti con una pedana baropodometrica resistiva a basso costo. Questi valori sono stati rapportati con misurazione dirette e con dati raccolti dall’elaborazione dell’immagine ricavata con uno scanner plantare 3D. In particolare sono state valutate misure di lunghezza e larghezza del piede, dell’arch index definito come il rapporto tra l’area del mesopiede e l’area totale del piede meno le dita, dell’angolo di progressione del passo e del CPEI, un parametro che indica la variazione della traiettoria del centro di massa. In conclusione la pedana baropodometrica, pur non essendo precisa nel determinare la distribuzione delle pressioni massime, si è dimostrata sufficientemente accurata nella stima delle dimensioni del piede, delle aree di appoggio e di alcune caratteristiche funzionali del piede.
Resumo:
Lo studio dell'ottica si incentra sull'indagine della natura della luce, delle sue proprietà e delle leggi che ne regolano i fenomeni fisici. Si possono, in complessivo, identificare tre branche: l'ottica geometrica, l'ottica ondulatoria e l'ottica quantistica. Quest'ultima esula dalla presente trattazione, che piuttosto si incentra sull'aspetto geometrico ed ondulatorio della radiazione luminosa. Con l'ottica geometrica viene identificato lo studio della luce come propagazione rettilinea di raggi luminosi. Essa include lo studio degli specchi e delle lenti, di particolare interesse per le applicazioni nella strumentazione astrofisica. All'interno del primo capitolo, dunque, sono enunciate le principali leggi che definiscono la propagazione rettilinea della luce, la sua riflessione contro una superficie o la sua rifrazione attraverso due mezzi differenti. L'ottica geometrica, in effettivo, consiste in un caso limite della più generica trattazione fornita dall'ottica ondulatoria. La condizione che demarca la possibilità di approssimare la trattazione nell'ambito geometrico, è definita dalla richiesta che la lunghezza d'onda della radiazione in esame sia di molto inferiore delle dimensioni lineari dell'ostacolo con cui interagisce. Qualora tale condizione non fosse soddisfatta, la considerazione della natura ondulatoria della luce non sarebbe più trascurabile. Nel secondo capitolo dell'elaborato, dunque, vengono presi in esame il modello ondulatorio della radiazione elettromagnetica ed alcuni fenomeni fisici che ne avvalorano la fondatezza; in particolare i fenomeni dell'interferenza e della diffrazione. Infine, nel terzo ed ultimo capitolo, sono affrontati alcuni esempi di applicazioni astrofisiche, sia nell'ambito dell'ottica geometrica che nell'ambito dell'ottica ondulatoria.
Resumo:
L'atomo di idrogeno è il più leggero ed abbondante dell'universo. Esiste sotto forma di molecola H2, ionizzato e neutro: di seguito si analizzeranno le principali caratteristiche di queste tre fasi e si sottolineeranno i criteri ambientali che determinano la presenza di idrogeno in una o nell'altra fase e in particolare a quali processi radiattivi corrispondono. Si accenna inoltre al ruolo fondamentale che esso svolge in alcuni ambiti della ricerca astrofisica come la determinazione della curva di rotazione delle galassie a spirale o l'osservazione di regioni di formazione stellare. L'elaborato si apre con una panoramica sulla trattazione quantistica dell'atomo di idrogeno. Si parlerà delle sue autofunzioni e dei livelli energetici relativi, delle regole di selezione tra gli stati e in particolare degli effetti di struttura iperfine che portano alla formazione della riga a 21 cm, potentissimo mezzo di indagine in nostro possesso. Si aggiunge infine una breve trattazione su come l'idrogeno funga da carburante per la vita delle stelle.
Resumo:
Questa Tesi di Laurea si prefigge gli obiettivi di riuscire a caratterizzare i Sensori Hall e di testare un Sensore Hall di Asahi-Kasei, il CQ-3300, di cui l’Università di Bologna è in possesso. Per questa ragione si può dividere il processo di realizzazione della tesi in 2 fasi ben distinte: • Una prima fase dedicata interamente allo studio dell’argomento e alla ricerca online di Sensori Hall presenti sul mercato. Si è dunque approfondito il fenomeno fisico su cui essi basano il proprio funzionamento, le loro caratteristiche principali e le loro applicazioni. Se ne sono poi scelti due, oltre al CQ-3300, tra quelli presenti sul mercato per poterli caratterizzare e confrontare con il suddetto. • Una seconda fase dedicata ai test sul Sensore nel laboratorio di elettronica. Durante questa fase è stato montato su PCB (Printed Circuit Board) il sensore Hall CQ-3300 e sono stati realizzati dei circuiti di prova con lo scopo di verificare il corretto funzionamento del Sensore e l’effettiva banda di funzionamento. I tests in corrente alternata sono stati effettuati grazie all’ausilio di un generatore di corrente in grado di convertire un segnale in tensione in un segnale in corrente. Questo generatore di corrente però non può erogare un segnale in corrente di ampiezza maggiore a 1 Ampere, ragione per cui si è preferito tenersi alla larga da tale valore. L’Università di Bologna ritiene necessario testare questo sensore in termini di banda, in quanto ha progettato un Sensore Hall dalle caratteristiche simili in termini di banda di lavoro al componente in questione, il che rende importante capire se quest’ultimo tiene fede alla banda di lavoro che viene indicata sul suo datasheet, ovvero 1 MHz.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
Uno dei principali problemi legati ai metodi di controllo usuali del serraggio riguarda l’impossibilità di avere un'accurata misurazione del precarico del bullone, il quale risulta essere un parametro di grande importanza per prevenire rotture pericolose che possono portare al collasso dell’intera struttura. Si è cercato, dunque, un confronto di misurazioni tra i diversi metodi di controllo del serraggio e quello ad ultrasuoni.
Resumo:
Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.
Resumo:
In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.