830 resultados para computer quantistici computazione quantistica qubit applicazioni implementazioni
Resumo:
Lo studio dell'ottica si incentra sull'indagine della natura della luce, delle sue proprietà e delle leggi che ne regolano i fenomeni fisici. Si possono, in complessivo, identificare tre branche: l'ottica geometrica, l'ottica ondulatoria e l'ottica quantistica. Quest'ultima esula dalla presente trattazione, che piuttosto si incentra sull'aspetto geometrico ed ondulatorio della radiazione luminosa. Con l'ottica geometrica viene identificato lo studio della luce come propagazione rettilinea di raggi luminosi. Essa include lo studio degli specchi e delle lenti, di particolare interesse per le applicazioni nella strumentazione astrofisica. All'interno del primo capitolo, dunque, sono enunciate le principali leggi che definiscono la propagazione rettilinea della luce, la sua riflessione contro una superficie o la sua rifrazione attraverso due mezzi differenti. L'ottica geometrica, in effettivo, consiste in un caso limite della più generica trattazione fornita dall'ottica ondulatoria. La condizione che demarca la possibilità di approssimare la trattazione nell'ambito geometrico, è definita dalla richiesta che la lunghezza d'onda della radiazione in esame sia di molto inferiore delle dimensioni lineari dell'ostacolo con cui interagisce. Qualora tale condizione non fosse soddisfatta, la considerazione della natura ondulatoria della luce non sarebbe più trascurabile. Nel secondo capitolo dell'elaborato, dunque, vengono presi in esame il modello ondulatorio della radiazione elettromagnetica ed alcuni fenomeni fisici che ne avvalorano la fondatezza; in particolare i fenomeni dell'interferenza e della diffrazione. Infine, nel terzo ed ultimo capitolo, sono affrontati alcuni esempi di applicazioni astrofisiche, sia nell'ambito dell'ottica geometrica che nell'ambito dell'ottica ondulatoria.
Resumo:
In questa tesi sono stati analizzati i dati raccolti nella sperimentazione di un percorso di fisica quantistica in una quinta liceo scientifico – indirizzo musicale, svolta nel periodo Marzo-Giugno 2015. Il percorso, progettato dai ricercatori in Didattica della Fisica del DIFA di Bologna, comprende una parte “genuinamente” quantistica sviluppata a partire dall’“Esperimento più bello della Fisica”. Il percorso è stato progettato sulla base dei criteri che definiscono l’appropriazione, costrutto che esprime un particolare tipo di apprendimento attraverso cui lo studente “fa proprio” un concetto. L’analisi è stata condotta con l’obiettivo di osservare casi di appropriazione tra gli studenti e di rifinire il costrutto di appropriazione, valutando in particolare l’efficacia del questionario sociometrico, uno strumento appositamente progettato dall’autore di questa tesi per valutare una delle dimensioni di cui si compone il costrutto di appropriazione. I principali dati analizzati per dare risposta agli obiettivi della tesi riguardano le risposte degli studenti a interviste realizzate alla fine del percorso scolastico, nonché gli esiti di altre attività appositamente progettate: svolgimento di un compito in classe, elaborazione di un tema scientifico, compilazione di questionari. I risultati mostrano come si siano ritrovati tre punti molto delicati che possono ostacolare l’appropriazione: il tempo a disposizione, le dinamiche di classe e soprattutto il rapporto che hanno avuto gli studenti con i concetti quantistici del percorso. Tali fattori hanno portato reazioni molto diverse: chi è stato stimolato e questo ha favorito l’appropriazione, chi ha compreso la fisica quantistica ma non l’ha accettata, chi l’ha compresa e accettata senza troppi problemi, chi si è rifiutato di studiarla perché “troppo grande per sé”.
Resumo:
Al giorno d’oggi quasi tutte le persone possiedono un mezzo motorizzato che utilizzano per spostarsi. Tale operazione, che risulta semplice per una persona, può essere compiuta da un robot o un autoveicolo in modo autonomo? La risposta a questa domanda è si, ma se ad una persona serve solo un po’ di pratica per guidare, questa azione non risulta altrettanto immediata per dei veicoli motorizzati. In soccorso ad essi vi è la Computer Vision, un ramo dell’informatica che, in un certo senso, rende un elaboratore elettronico in grado di percepire l’ambiente circostante, nel modo in cui una persona fa con i propri occhi. Oggi ci concentreremo su due campi della computer vision, lo SLAM o Simultaneous Localization and Mapping, che rende un robot in grado di mappare, attraverso una camera, il mondo in cui si trova ed allo stesso tempo di localizzare, istante per istante, la propria posizione all’interno di esso, e la Plane Detection, che permette di estrapolare i piani presenti all’interno di una data immagine.
Resumo:
Available on demand as hard copy or computer file from Cornell University Library.
Resumo:
We calculate the electron exchange coupling for a phosphorus donor pair in silicon perturbed by a J-gate potential and the boundary effects of the silicon host geometry. In addition to the electron-electron exchange interaction we also calculate the contact hyperfine interaction between the donor nucleus and electron as a function of the varying experimental conditions. Donor separation, depth of the P nuclei below the silicon oxide layer and J-gate voltage become decisive factors in determining the strength of both the exchange coupling and hyperfine interaction-both crucial components for qubit operations in the Kane quantum computer. These calculations were performed using an anisotropic effective-mass Hamiltonian approach. The behaviour of the donor exchange coupling as a function of the parameters varied in this work provides relevant information for the experimental design of these devices.
Resumo:
A quantum circuit implementing 5-qubit quantum-error correction on a linear-nearest-neighbor architecture is described. The canonical decomposition is used to construct fast and simple gates that incorporate the necessary swap operations allowing the circuit to achieve the same depth as the current least depth circuit. Simulations of the circuit's performance when subjected to discrete and continuous errors are presented. The relationship between the error rate of a physical qubit and that of a logical qubit is investigated with emphasis on determining the concatenated error correction threshold.
Resumo:
We investigate the problem of teleporting an unknown qubit state to a recipient via a channel of 2L qubits. In this procedure a protocol is employed whereby L Bell state measurements are made and information based on these measurements is sent via a classical channel to the recipient. Upon receiving this information the recipient determines a local gate which is used to recover the original state. We find that the 2(2L)-dimensional Hilbert space of states available for the channel admits a decomposition into four subspaces. Every state within a given subspace is a perfect channel, and each sequence of Bell measurements projects 2L qubits of the system into one of the four subspaces. As a result, only two bits of classical information need be sent to the recipient for them to determine the gate. We note some connections between these four subspaces and ground states of many-body Hamiltonian systems, and discuss the implications of these results towards understanding entanglement in multi-qubit systems.
Resumo:
Il mondo dell’Internet of Things e del single board computing sono settori in forte espansione al giorno d’oggi e le architetture ARM sono, al momento, i dominatori in questo ambito. I sistemi operativi e i software si stanno evolvendo per far fronte a questo cambiamento e ai nuovi casi d’uso che queste tecnologie introducono. In questa tesi ci occuperemo del porting della distribuzione Linux Sabayon per queste architetture, la creazione di un infrastruttura per il rilascio delle immagini e la compilazione dei pacchetti software.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
Si espone la teoria quantistica non relativistica dei sistemi di particelle identiche, costruendo un opportuno spazio delle configurazioni la cui struttura è coerente con la loro indistinguibilità. Si impiegano nozioni di topologia algebrica per la formulazione di una meccanica quantistica su tale spazio, mostrando che in due dimensioni spaziali esiste una continuità di statistiche quantistiche. Le particelle con queste statistiche intermedie tra bosoni e fermioni sono chiamate anioni. Si illustra l'importanza che hanno assunto nella spiegazione dell'effetto Hall quantistico e nell'attuale ricerca sulla possibilità di creare un computer quantistico topologico.
Resumo:
Il fatto che il pensiero sia più rapido della comunicazione verbale o scritta è un concetto ormai consolidato. Ricerche recenti, però, si stanno occupando di sviluppare nuove tecnologie in grado di tradurre l’attività neurale in parole o testi in tempo reale. È proprio questo il campo delle Real-time Silent Speech Brain-Computer Interfaces, ovvero sistemi di comunicazione alternativi, basati sulla registrazione e sull’interpretazione di segnali neurali, generati durante il tentativo di parlare o di scrivere. Queste innovazioni tecnologiche costituiscono un traguardo fondamentale per la vita delle persone con paralisi o con patologie neurologiche che determinano l’inabilità a comunicare. L’obiettivo di questo elaborato è quello di descrivere due applicazioni innovative nell’ambito delle Real-time Silent Speech-BCIs. I metodi di BCI confrontati nel presente elaborato sintetizzano il parlato attraverso la rilevazione invasiva o parzialmente invasiva dell’attività cerebrale. L’utilizzo di metodi invasivi per la registrazione dell’attività cerebrale è giustificato dal fatto che le performance di acquisizione del segnale ottenute sono tali da controbilanciare i rischi associati all’operazione chirurgica necessaria per l’impianto. Le tecniche descritte sfruttano delle Reti Neurali Ricorrenti (RNNs), che si sono dimostrate le più efficaci nel prevedere dati sequenziali. Gli studi presentati in questa tesi costituiscono un passaggio fondamentale nel progresso tecnologico per il ripristino della comunicazione in tempo reale e sono i primi a riportare prestazioni di sintesi paragonabili a quelle del linguaggio naturale.
Resumo:
La Degenerazione è un determinato stato della materia causato da particolari condizioni di temperatura e densità. E' un fenomeno che è necessario valutare quando la fisica che descrive un sistema non può fare a meno di considerare la trattazione quantistica per caratterizzare le sue proprietà. Proprio per questo motivo è necessario abbandonare l'approccio deterministico della Meccanica Classica e abbracciare quello probabilistico della Meccanica Quantistica, che vede le particelle dividersi in due categorie: Fermioni e Bosoni. Per entrambe le specie, la materia, mediante specifiche condizioni, può dunque ritrovarsi ad essere in uno stato degenere, presentando diversi fenomeni a seconda della tipologia di particelle che compongono un gas in analisi. Tale fisica della materia degenere, in particolare dei Fermioni degeneri, ha importanti applicazioni nel campo dell'astrofisica: il regime che domina il comportamento del gas interno ad una struttura stellare determina completamente lo sviluppo della sua evoluzione, per via dei differenti contributi di pressione che ogni stato apporta al sostenimento di questi corpi celesti. La degenerazione della materia riveste un ruolo fondamentale anche negli stadi evolutivi finali delle stelle: é il caso delle Nane Bianche e delle Stelle di Neutroni, nelle quali la sola pressione di degenerazione fermionica, entro certi limiti, contrasta la pressione gravitazionale che guida la loro contrazione, mantenendo così l'Equilibrio Idrostatico di queste strutture stellari.
Resumo:
This paper proposes an architecture for machining process and production monitoring to be applied in machine tools with open Computer numerical control (CNC). A brief description of the advantages of using open CNC for machining process and production monitoring is presented with an emphasis on the CNC architecture using a personal computer (PC)-based human-machine interface. The proposed architecture uses the CNC data and sensors to gather information about the machining process and production. It allows the development of different levels of monitoring systems with mininium investment, minimum need for sensor installation, and low intrusiveness to the process. Successful examples of the utilization of this architecture in a laboratory environment are briefly described. As a Conclusion, it is shown that a wide range of monitoring solutions can be implemented in production processes using the proposed architecture.
Resumo:
Nowadays, digital computer systems and networks are the main engineering tools, being used in planning, design, operation, and control of all sizes of building, transportation, machinery, business, and life maintaining devices. Consequently, computer viruses became one of the most important sources of uncertainty, contributing to decrease the reliability of vital activities. A lot of antivirus programs have been developed, but they are limited to detecting and removing infections, based on previous knowledge of the virus code. In spite of having good adaptation capability, these programs work just as vaccines against diseases and are not able to prevent new infections based on the network state. Here, a trial on modeling computer viruses propagation dynamics relates it to other notable events occurring in the network permitting to establish preventive policies in the network management. Data from three different viruses are collected in the Internet and two different identification techniques, autoregressive and Fourier analyses, are applied showing that it is possible to forecast the dynamics of a new virus propagation by using the data collected from other viruses that formerly infected the network. Copyright (c) 2008 J. R. C. Piqueira and F. B. Cesar. This is an open access article distributed under the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.