217 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.
Resumo:
In this report a new automated optical test for next generation of photonic integrated circuits (PICs) is provided by the test-bed design and assessment. After a briefly analysis of critical problems of actual optical tests, the main test features are defined: automation and flexibility, relaxed alignment procedure, speed up of entire test and data reliability. After studying varied solutions, the test-bed components are defined to be lens array, photo-detector array, and software controller. Each device is studied and calibrated, the spatial resolution, and reliability against interference at the photo-detector array are studied. The software is programmed in order to manage both PIC input, and photo-detector array output as well as data analysis. The test is validated by analysing state-of-art 16 ports PIC: the waveguide location, current versus power, and time-spatial power distribution are measured as well as the optical continuity of an entire path of PIC. Complexity, alignment tolerance, time of measurement are also discussed.
Resumo:
Questa tesi tratta dell’amplificatore di potenza (PA–Power Amplifier) operante in classe E. Si tratta di un convertitore DC/AC ad elevato rendimento che può trovare impiego in numerose applicazioni in cui il problema della generazione di calore o la necessità di non sprecare energia sono particolarmente stringenti (ad esempio apparati per cui non è previsto un impianto di raffreddamento e/o apparati alimentati a batteria). L’elevato rendimento di un amplificatore operante in classe E deriva dalle specifiche forme d’onda ai capi del dispositivo attivo impiegato, tali per cui la perdita di commutazione durante la fase di accensione dello switch diviene pressoché trascurabile (Zero-Voltage-Switching e Zero-Derivative-Voltage Turn-ON). Il prezzo da pagare per ottenere queste benefiche forme d’onda è quello di avere un valore di cresta della tensione sul dispositivo che commuta assai più elevato del valore medio, coincidente con la tensione di alimentazione DC. In generale si stima una tensione di picco fra le 3 e le 5 volte più elevata della tensione DC, in funzione del Duty-Cycle e dell’assorbimento di corrente sul carico. Occorre poi tenere presente che in condizioni dinamiche (ad esempio qualora si collegasse direttamente l’amplificatore all’alimentazione) potrebbero innescarsi dei transitori tali per cui la tensione di picco ecceda anche il range suddetto. Per questo motivo è bene porre un limite alla massima tensione di picco adottando dei circuiti di protezione del transistore al fine di evitare la sua distruzione per limiti legati alla tensione di breakdown. Questi circuiti sono denominati clamper: in questa tesi valuteremo le modalità con cui si può implementare tale protezione; valuteremo, inoltre, i vantaggi e gli svantaggi derivanti dall’impiego di tali circuiti. Questi clamper sono prevalentemente di tipo dissipativo (Zener); nel corso della tesi si è studiato la realizzazione di un clamper rigenerativo che utilizza un trasformatore, ma si è constatata la irrealizzabilità fisica a causa della inevitabile presenza della induttanza dispersa.
Resumo:
Questo lavoro di tesi si occupa dello studio del fenomeno di condensazione di Bose-Einstein sia da un punto di vista teorico che, in maniera più accennata, da quello pratico-sperimentale; risulta pertanto strutturato in due parti. La prima è incentrata sull'analisi prettamente teorico-matematica dell'argomento, e si apre con l'introduzione dell'opportuno apparato formale atto alla trattazione della statistica quantistica; a tal proposito vengono definiti gli operatori di densità. Quindi viene affrontato il problema dell'indistinguibilità degli enti quantistici e del conseguente carattere di simmetria delle funzioni d'onda, individuando così la differenza tra particelle fermioniche e bosoniche. Di queste ultime vengono largamente studiate la statistica cui essere rispondono e le loro principali caratteristiche termodinamiche. Infine, viene analizzato il caso specifico del gas ideale di Bose, trattato nei limiti del continuo e termodinamico; è nel corso di questa trattazione che emerge il fenomeno di transizione chiamato condensazione di Bose-Einstein, di cui vengono ampiamente studiate le proprietà. La seconda parte, invece, è volta all'analisi delle tecniche sperimentali utilizzate per la realizzazione della condensazione, in particolare le trappole ottiche di dipolo; dopo averne studiato le caratteristiche, vengono illustrate alcune tecniche di raffreddamento di atomi intrappolati. Il lavoro si conclude con la trattazione delle principali tecniche diagnostiche e di riconoscimento del condensato.
Resumo:
Lo scopo del presente lavoro è quello di analizzare il ben noto concetto di rotazione attraverso un formalismo matematico. Nella prima parte dell'elaborato si è fatto uso di alcune nozioni di teoria dei gruppi nella quale si definisce il gruppo ortogonale speciale in n dimensioni. Vengono studiati nel dettaglio i casi di rotazione in 2 e 3 dimensioni introducendo le parametrizzazioni più utilizzate. Nella seconda parte si introduce l'operatore di rotazione, il quale può essere applicato ad un sistema fisico di tipo quantistico. Vengono infine studiate le proprietà di simmetria di rotazione, definendone le caratteristiche e analizzando il caso particolare del potenziale centrale.
Resumo:
Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.
Resumo:
Attualmente la costante diffusione delle sensor network e lo sviluppo di apparati elettronici a basso consumo di energia hanno fatto in modo di motivare la ricerca nel campo dell’elettronica che tenta di spiegare il concetto dell'energy harvesting per raccogliere energia dall'ambiente circostante. I sistemi che raccolgono quella energia che normalmente va persa sono di diversi tipi.
Resumo:
Si fornisce un'introduzione al formalismo geometrico della meccanica classica e quantistica, studiando dapprima lo spazio delle fasi come varietà simplettica ricavando le equazioni di Hamilton. Si descrivono in seguito gli strumenti necessari per operare in uno spazio di Hilbert, i quali risultano più complessi di quelli utilizzati per descrivere lo spazio delle fasi classico. In particolare notiamo l'esigenza di definire anche una struttura riemanniana sugli spazi complessi per poter ivi definire il prodotto scalare, le parentesi e i commutatori simmetrici.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
La teoria dell'inflazione risolve alcuni problemi fondamentali posti dalla teoria standard dell'origine dell'universo, in particolare chiarisce perché l'universo è piatto e omogeneo quando secondo la cosmologia standard non lo dovrebbe essere (o meglio: lo potrebbe essere solo con probabilità molto bassa). Inoltre la teoria dell'inflazione spiega l'origine delle anisotropie della radiazione cosmica di fondo e in tal modo l'inflazione è responsabile anche dell'origine della struttura a grande scala dell'universo. La teoria inflazionaria presenta la possibilità di una conferma sperimentale. Alcune sue predizioni sono già state verificate e una forte prova era sembrata venire dall'esperimento BICEP2, ma per ora (novembre 2014) non c'è stata una conferma. Nello specifico, l'esperimento BICEP2 aveva dichiarato a marzo 2014 di aver rilevato nella radiazione cosmica di fondo il segnale di onde gravitazionali che potevano essere state provocate soltanto dall'inflazione. La presente tesi descrive gli aspetti classici (non quantistici) della teoria dell'inflazione, riporta i risultati relativi alla trattazione quantistica delle perturbazioni della radiazione cosmica di fondo e illustra la questione delle verifiche sperimentali della teoria dell'inflazione, dedicando particolare rilievo al recente esperimento BICEP2.
Resumo:
Tutti gli apparati elettronici richiedono un'alimentazione in tensione continua. Qualunque sia la fonte di energia elettrica, una batteria (in DC) o la rete di distribuzione (in AC), l’alimentatore ha il compito di regolare la tensione continua di uscita per consentire il corretto funzionamento del dispositivo alimentato. La stabilizzazione della tensione DC in uscita deve avvenire nonostante la presenza di ripple e di disturbi sulla alimentazione primaria, di ampie variazioni sulle correnti assorbite dal carico, di ampie escursioni di temperatura e deve essere garantita nel tempo, anche a fronte di sostituzione di alcuni componenti del circuito. In questa tesi si prenderanno in considerazione i regolatori lineari. Sebbene si tratti di circuiti che operano in condizioni di linearità e quindi, quasi per definizione, poco efficienti, in realtà il loro impiego diventa quasi obbligatorio per applicazioni in cui è richiesta una tensione di alimentazione poco rumorosa. Se utilizzati a valle di un alimentatore switching possono aumentare notevolmente la qualità della tensione di uscita operando con livelli di efficienza e di dissipazione del tutto accettabili e con minimo aumento di costo del sistema. Gli alimentatori lineari non sono dunque “superati” dai più recenti alimentatori switching ma sono, piuttosto, “alternativi” e, in molti alimentatori moderni, di complemento. Per questo motivo, anche di recente, sono stati sviluppati e trovano importanti quote di mercato innovative architetture di regolatori lineari dalle prestazioni molto migliorate e vi sono circuiti come il regolatore di John Linsley Hood che non possono non suscitare il più vivo interesse della comunità audiofila
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
Il seguente elaborato si prefigge di esporre in modo chiaro la teoria delle misure deboli in meccanica quantistica. Tale teoria ha aperto nuovi scenari all'interno dell'interpretazione fisica del mondo quantistico e allo stesso tempo ha fornito alla fisica sperimentale una nuova tecnica per esplorare i fenomeni microscopici. Il progetto si divide in tre capitoli; nel primo capitolo vengono esposti i concetti chiave della teoria della misura in meccanica quantistica utili all'introduzione del secondo capitolo, ove viene trattata la teoria delle misure deboli. Infine nell'ultimo capitolo viene esposta la parte applicativa e in particolare viene discusso un esperimento della doppia fenditura, svoltosi all'università di Toronto con l'utilizzo delle misure deboli.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.