667 resultados para Sistemi di collaudo, Termografia
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
La realizzazione di stati non classici del campo elettromagnetico e in sistemi di spin è uno stimolo alla ricerca, teorica e sperimentale, da almeno trent'anni. Lo studio di atomi freddi in trappole di dipolo permette di avvicinare questo obbiettivo oltre a offrire la possibilità di effettuare esperimenti su condesati di Bose Einstein di interesse nel campo dell'interferometria atomica. La protezione della coerenza di un sistema macroscopico di spin tramite sistemi di feedback è a sua volta un obbiettivo che potrebbe portare a grandi sviluppi nel campo della metrologia e dell'informazione quantistica. Viene fornita un'introduzione a due tipologie di misura non considerate nei programmi standard di livello universitario: la misura non distruttiva (Quantum Non Demolition-QND) e la misura debole. Entrambe sono sfruttate nell'ambito dell'interazione radiazione materia a pochi fotoni o a pochi atomi (cavity QED e Atom boxes). Una trattazione delle trappole di dipolo per atomi neutri e ai comuni metodi di raffreddamento è necessaria all'introduzione all'esperimento BIARO (acronimo francese Bose Einstein condensate for Atomic Interferometry in a high finesse Optical Resonator), che si occupa di metrologia tramite l'utilizzo di condensati di Bose Einstein e di sistemi di feedback. Viene descritta la progettazione, realizzazione e caratterizzazione di un servo controller per la stabilizzazione della potenza ottica di un laser. Il dispositivo è necessario per la compensazione del ligh shift differenziale indotto da un fascio laser a 1550nm utilizzato per creare una trappola di dipolo su atomi di rubidio. La compensazione gioca un ruolo essenziale nel miglioramento di misure QND necessarie, in uno schema di feedback, per mantenere la coerenza in sistemi collettivi di spin, recentemente realizzato.
Resumo:
Il presente elaborato ha lo scopo di analizzare lo stato attuale dell'accumulo dell'energia applicato al caso dell'energia eolica. Dopo una introduzione in cui viene presentato il perchè della necessità di garantire sistemi di accumulo dell'energia e quali sono i relativi vantaggi, viene proposto un caso studio di un impianto eolico tipico: partendo dalla potenzialità produttiva dell'impianto e dal tipo di funzione che il sistema di accumulo deve svolgere si passa alla scelta e dimensionamento del sistema più adatto.
Resumo:
La situazione energetica mondiale, strettamente dipendente dai combustibili fossili, richiede un notevole cambio di rotta, per puntare su fonti energetiche più sostenibili dal punto di vista ambientale, ma che contemporaneamente permettano di evitare le negoziazioni in mercati competitivi come quello del petrolio. Un'efficiente soluzione per colmare i limiti legati all'utilizzo delle fonti rinnovabili è l'uso di sistemi di accumulo dell'energia; grazie a questi sistemi è possibile trasformare l'energia elettrica in altre forme di energia (meccanica, chimica, etc.) per poter essere accumulata e conservata fino al momento dell'utilizzo. Nel corso della trattazione verranno presentate le principali tecnologie per l'accumulo e/o lo stoccaggio di energia, attraverso una descrizione degli impianti, dei principali vantaggi e degli aspetti negativi legati a ciascuno di essi. In seguito saranno fissati i parametri fondamentali per l'analisi delle tecnologie al fine di stabilire, in base alle funzioni da assolvere, quali siano più adatte allo scopo.
Resumo:
Fra i sistemi di propulsione elettrica per satelliti, il Pulsed Plasma Thruster, PPT, è quello dal design più semplice. È anche il primo sistema di propulsione elettrica utilizzato in un satellite artificiale, ossia ZOND-2 lanciato nel 1964 dall’Unione Sovietica. Tuttavia, dopo circa 50 anni di ricerca, la comprensione teorica e sperimentale di questo dispositivo rimane limitata. Questo elaborato di tesi magistrale indaga sul sottosistema di accensione del PPT, cercando di mettere in luce alcuni aspetti legati al lifetime della spark plug, SP. Tale SP, o candela, è l’attuatore del sottosistema di accensione. Questa produce una scintilla sulla sua superficie, la quale permette la realizzazione della scarica elettrica principale fra i due elettrodi del motore. Questa scarica crea una sottile parete di plasma che, per mezzo della forza elettromagnetica di Lorentz, produce la spinta del PPT. Poiché la SP si trova all’interno del catodo del motore e si affaccia nella camera di scarica, questa soffre di fenomeni di corrosione e di deposizione carbonacea proveniente dal propellente. Questi fenomeni possono limitare notevolmente il lifetime della SP. I parametri connessi alla vita operativa della SP sono numerosi. In questo elaborato si è analizzata la possibilità di utilizzare una elettronica di accensione della candela alternativa alla classica soluzione che utilizza un trasformatore. Il sottosistema di accensione classico e quello nuovo sono stati realizzati e testati, per metterne in luce le differenze ed i possibili vantaggi/svantaggi.
Resumo:
L’obiettivo di questa tesi di laurea è quello di descrivere le principali caratteristiche delle mappe digitali e dei sistemi di navigazione che possono essere fruiti dagli utenti attraverso l’utilizzo di dispositivi con diverse caratteristiche (quali i dispositivi mobili, come smart phone, tablet, eccetera). Questi sistemi offrono dei servizi estremamente utili, che mirano a migliorare la mobilità e l’indipendenza dell’utente e, quindi, possono rappresentare un valido supporto agli utenti con disabilità che desiderano spostarsi negli ambienti urbani in modo autonomo. D’altra parte, i contenuti digitali e i servizi offerti dalle mappe e dai sistemi di navigazione possono comportare delle barriere tecnologiche che influenzano la fruizione e la navigazione da parte di questi utenti. Nell’ambito di questa tesi saranno descritte anche le caratteristiche tecniche delle mappe digitali e dei sistemi di navigazione, con particolare attenzione alle barriere tecnologiche che queste possono rappresentare per gli utenti con disabilità. Infine, l’obiettivo principale di questa tesi è quello di illustrare alcuni progetti di ricerca che offrono delle soluzioni e dei validi supporti agli utenti con differenti disabilità nell’accesso e nella fruizione delle mappe digitali e dei sistemi di navigazione. In particolare, saranno presentati i progetti di ricerca più interessanti e quelli che maggiormente hanno avuto un riscontro pratico, offrendo delle soluzioni effettivamente utilizzabili dagli utenti che fanno uso di determinate tecnologie assistive e che hanno vincoli e bisogni specifici. Nell’ambito di questa tesi sarà dato spazio anche a progetti che offrono agli utenti mappe tematiche (comunque accessibili) che mirano ad offrire informazioni sull’accessibilità urbana, consentendo, così, agli utenti di avere dati aggiuntivi e di migliorare ulteriormente la loro autonomia nel muoversi in città.
Resumo:
L’avanzare delle tecnologie ICT e l’abbattimento dei costi di produzione hanno portato ad un aumento notevole della criminalità informatica. Tuttavia il cambiamento non è stato solamente quantitativo, infatti si può assistere ad un paradigm-shift degli attacchi informatici da completamente opportunistici, ovvero senza un target specifico, ad attacchi mirati aventi come obiettivo una particolare persona, impresa o nazione. Lo scopo della mia tesi è quello di analizzare modelli e tassonomie sia di attacco che di difesa, per poi valutare una effettiva strategia di difesa contro gli attacchi mirati. Il lavoro è stato svolto in un contesto aziendale come parte di un tirocinio. Come incipit, ho effettuato un attacco mirato contro l’azienda in questione per valutare la validità dei sistemi di difesa. L’attacco ha avuto successo, dimostrando l’inefficacia di moderni sistemi di difesa. Analizzando i motivi del fallimento nel rilevare l’attacco, sono giunto a formulare una strategia di difesa contro attacchi mirati sotto forma di servizio piuttosto che di prodotto. La mia proposta è un framework concettuale, chiamato WASTE (Warning Automatic System for Targeted Events) il cui scopo è fornire warnings ad un team di analisti a partire da eventi non sospetti, ed un business process che ho nominato HAZARD (Hacking Approach for Zealot Attack Response and Detection), che modella il servizio completo di difesa contro i targeted attack. Infine ho applicato il processo all’interno dell’azienda per mitigare minacce ed attacchi informatici.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
Lo scopo del presente lavoro è di illustrare alcuni temi di geometria simplettica, i cui risultati possono essere applicati con successo al problema dell’integrazione dei sistemi dinamici. Nella prima parte si formalizza il teorema di Noether generalizzato, introducendo il concetto dell’applicazione momento, e si dà una descrizione dettagliata del processo di riduzione simplettica, che consiste nello sfruttare le simmetrie di un sistema fisico, ovvero l’invarianza sotto l’azione di un gruppo dato, al fine di eliminarne i gradi di libertà ridondanti. Nella seconda parte, in quanto risultato notevole reso possibile dalla teoria suesposta, si fornisce una panoramica dei sistemi di tipo Calogero-Moser: sistemi totalmente integrabili che possono essere introdotti e risolti usando la tecnica della riduzione simplettica.
Studio della fluidodinamica e della reazione chimica in un reattore agitato tramite modellazione cfd
Resumo:
L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .
Resumo:
La proteina umana HDAC1 fa parte della famiglia delle HDAC (Istone Deacetilasi); questi enzimi, ad azione deacetilasica, catalizzano la reazione di rimozione di un gruppo acetile a livello degli istoni, componenti fondamentali della cromatina, la cui struttura influenza il ciclo cellulare e la regolazione dell’espressione genica. L’importanza della proteina in questione, a scopo terapeutico, risiede nello studio degli inibitori ad essa associati, i quali risultano utili a livello farmacologico, come coadiuvanti nelle terapie per la cura di tumori. La produzione di HDAC1 ha previsto l’utilizzo di due diversi ceppi del batterio Escherichia coli, denominati TOP10 e BW25993, che sono serviti come sistemi “ospiti” per l’inserimento del vettore di espressione pBAD-HDAC1 contenente la porzione di DNA che codifica per la proteina ricombinante. Sono state determinate le condizioni più idonee, per entrambi i sistemi analizzati, in modo da massimizzare l’espressione della proteina indotta mediante aggiunta di arabinosio al terreno di coltura. A seconda della combinazione ceppo-vettore, infatti, il livello di espressione ottenuto cambia significativamente. In seguito, gli estratti proteici totali sono stati sottoposti a purificazione mediante diversi passaggi cromatografici ed è stata determinata la resa finale del processo. La caratterizzazione della proteina ricombinante purificata ha evidenziato una forma aggregata, di tipo ottamerico, che potrebbe influenzare l’attività enzimatica. Per questo motivo sono stati portati avanti numerosi tentativi di dissociazione dell’oligomero incubando HDAC1 con diversi agenti. Un effetto disaggregante è stato osservato solo in presenza di due detergenti, SDS (anionico) e CTAB (cationico), i quali hanno permesso di ottenere la proteina in forma monomerica. Tra i due detergenti, l’SDS è risultato più efficace, mentre per il CTAB si richiedono ulteriori indagini ed approfondimenti. Altri studi, infine, sono auspicabili ai fini di migliorare ulteriormente la fase di espressione, in modo da rendere il protocollo di produzione adatto ad un’applicazione a livello industriale.
Resumo:
Lo studio di sistemi quantistici sta alla base di molti dei moderni sviluppi teorici e applicativi della Fisica. In questo scritto vogliamo studiare il funzionamento di simulatori e computer quantistici. I primi permettono di simulare l’evoluzione di un sistema quantistico in maniera controllata gli altri possono eseguire operazioni logiche su oggetti chiamati qubits. Andremo a studiare come ottenere un set universale di porte logiche quantistiche e le loro caratteristiche. Analizzeremo le differenze tra simulazione analogica(AQS) e digitale(DQS). Applicheremo quest’ultima a sistemi di particelle fermioniche e bosoniche in un reticolo.