222 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
Durante la vita operativa di un aeromobile, gli elementi costitutivi possono essere soggetti a diverse tipologie di carichi. Questi carichi possono provocare la nascita e la propagazione di eventuali cricche, le quali una volta raggiunta una determinata dimensione possono portare alla rottura del componente stesso causando gravi incidenti. A tale proposito, la fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche. Lo studio e l’applicazione dei principi di fatica sugli aeroplani sono relativamente recenti, in quanto inizialmente gli aerei erano realizzati in tela e legno, un materiale che non soffre di fatica e assorbe le vibrazioni. I materiali aeronautici si sono evoluti nel tempo fino ad arrivare all’impiego dei materiali compositi per la costruzione degli aeromobili, nel 21. secolo. Il legame tra nascita/propagazione delle cricche e le tensioni residue ha portato allo sviluppo di numerose tecniche per la misurazione di queste ultime, con il fine di contrastare il fenomeno di rottura a fatica. Per la misurazione delle tensioni residue nei componenti metallici esistono diverse normative di riferimento, al contrario, per i materiali compositi, la normativa di riferimento è tuttora oggetto di studio. Lo scopo di questa tesi è quello di realizzare una ricerca e studiare dei metodi di riferimento per la misurazione delle tensioni residue nei laminati compositi, tramite l’approfondimento di una tecnica di misurazione delle tensioni residue, denominata Incremental Hole Drilling.
Resumo:
In questa tesi si discute la formulazione di una teoria quantistica della dinamica libera di particelle e stringhe relativistiche. La dinamica relativistica viene costruita in entrambi i casi a partire dalla formulazione classica con invarianza di gauge della parametrizzazione di, rispettivamente, linee e fogli di mondo. Si scelgono poi condizioni di gauge-fixing dette di cono-luce. La teoria quantistica viene poi formulata usando le prescrizioni di quantizzazione canonica di Dirac.
Resumo:
L'elaborato è finalizzato a presentare l'analisi degli operatori differenziali agenti in meccanica quantistica e la teoria degli operatori di Sturm-Liouville. Nel primo capitolo vengono analizzati gli operatori differenziali e le relative proprietà. Viene studiata la loro autoaggiunzione su vari domini con diverse condizioni al contorno e vengono tratte delle conclusioni sul loro significato come osservabili. Nel secondo capitolo viene presentato il concetto di spettro e vengono studiate le sue proprietà.Vengono poi analizzati gli spettri degli operatori precedentemente introdotti. Nell'utimo capitolo vengono presentati gli operatori di Sturm-Liouville e alcune proprietà delle equazioni differenziali. Vengono imposte delle specifiche condizioni al contorno che determinano la realizzazione dei sistemi di Sturm-Liouville, di cui vengono studiati due esempi notevoli: le guide d'onda e la conduzione del calore.
Resumo:
Il lavoro si è articolato in due parti: sintesi di una molecola antiossidante (lipofenolo), che in prospettiva dovrà essere prodotta a partire da sottoprodotti dell’industria alimentare. La molecola ottenuta, già studiata nello sviluppo di emulsioni, è stata in questo lavoro testata nella formulazione di prodotti da forno, nei quali l’ossidazione lipidica è un processo difficilmente controllabile, se non con l’impiego di grassi saturi, come palma o strutto e sego. L’ossidazione incide profondamente sulla qualità e sulla sicurezza dell’alimento. È per questo che numerosi studi si sono rivolti, in questi anni, verso i meccanismi di antiossidazione nei sistemi reali. Partendo da una panoramica sui sottoprodotti della filiera alimentare, in questo lavoro si è ottimizzata una reazione di lipofilizzazione tra tirosolo e acido oleico e si è impiegato il prodotto nella formulazione tarallini per verificarne l’effettiva capacità di allungare la shelf life del prodotto ritardando l’insorgenza dell’ossidazione, con esiti più che soddisfacenti evidenziati dai dati ottenuti tramite tecniche di ossidazione forzata (Oxitest®) , analisi della componente volatile (SPME-GC-MS) e misurazione del numero di perossido.
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Progetto di Sistemi di Regolazione dell'Alimentazione ad Alta Affidabilità per Processori Multi-Core
Resumo:
Quasi tutti i componenti del FIVR (regolatore di tensione Buck che fornisce l'alimentazione ai microprocessori multi-core) sono implementati sul die del SoC e quindi soffrono di problemi di affidabilità associati allo scaling della tecnologia microelettronica. In particolare, la variazione dei parametri di processo durante la fabbricazione e i guasti nei dispostivi di switching (circuiti aperti o cortocircuiti). Questa tesi si svolge in ambito di un progetto di ricerca in collaborazione con Intel Corporation, ed è stato sviluppato in due parti: Inizialmente è stato arricchito il lavoro di analisi dei guasti su FIVR, svolgendo un accurato studio su quelli che sono i principali effetti dell’invecchiamento sulle uscite dei regolatori di tensione integrati su chip. Successivamente è stato sviluppato uno schema di monitoraggio a basso costo in grado di rilevare gli effetti dei guasti più probabili del FIVR sul campo. Inoltre, lo schema sviluppato è in grado di rilevare, durante il tempo di vita del FIVR, gli effetti di invecchiamento che inducono un incorretto funzionamento del FIVR. Lo schema di monitoraggio è stato progettato in maniera tale che risulti self-checking nei confronti dei suoi guasti interni, questo per evitare che tali errori possano compromettere la corretta segnalazione di guasti sul FIVR.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Durante lo studio riportato in questo elaborato finale sono state valutate le informazioni disponibili in letteratura relative alla caratterizzazione fisico-chimica e alle proprietà fisico-meccaniche di due prodotti da forno a confronto: tortillas e piadine. Per quanto riguarda le tortillas, sono state esaminate le informazioni relative alle proprietà fisico-meccaniche di tortillas attraverso diverse tecniche di arrotolabilità (soggettiva ed oggettiva) e di estensibilità. La misurazione oggettiva della arrotolabilità è stata condotta utilizzando un TA.XT2 Texture Analyzer equipaggiato di un dispositivo di arrotolamento personalizzato. L'apparecchiatura è composta da un tassello cilindrico in acrilico (Ø 1,9 cm) e da una catena metallica che collega il tassello del cilindro al braccio dell'analizzatore di texture (3.5). Per quanto riguarda le piadine, è stato riportato uno studio sulle caratteristiche chimico-fisiche, condotto su 12 piadine , in ci sono stai esaminati parametri quali Il pH, il contenuto di umidità, l'attività dell’acqua, Il test di estensibilità e il test di flessione a tre punti al fine di valutare le proprietà fisico-chimiche e meccaniche oggettive dei campioni . Le analisi fisico-chimiche hanno dimostrato valori costanti durante i primi 30 giorni di conservazione mentre la arrotolabilità soggettiva è risultata significativamente influenzata dal tempo di conservazione con punteggi ridotti osservati durante la conservazione . Infine, è stato fatto uno studio comparativo tra piadina e tortillas anche in relazione alle farcire e le caratteristiche strutturali relative. In conclusione si può affermare che potranno essere utilizzate le procedure di valutazione delle caratteristiche delle tortillas, maggiormente presenti nella letteratura internazionale, per lo studio delle proprietà fisico-meccaniche delle piadine anche al fine di creare prodotti innovativi a base del popolare prodotto da forno della Romagna.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
La presente tesi ha lo scopo di esporre i risultati dello studio effettuato nel comune di Minerbio, a seguito della segnalazione di un pozzo la cui acqua aveva iniziato a presentare anomalie di composizione con problemi alle colture. Si è quindi deciso di ricostruire la situazione idrogeologica della zona tramite un censimento pozzi, uno studio piezometrico ed una caratterizzazione idrochimica, il tutto agganciato ai data-base geologici del luogo derivati dalle banche dati del Servizio Geologico, Sismico e dei Suoli della Regione Emilia-Romagna. L‟obiettivo era comprendere le cause della specifica anomalia e di altre presenti nell‟area proponendo un modello concettuale interpretativo. A tale scopo è stata seguita come metodologia operativa la seguente: - Consultazione della cartografia tematica dell‟area (carta topografica, carta geologica e dei suoli) - Sopralluoghi per identificazione dei pozzi per le definizione di una rete piezometrica ed idrochimica. - Prima campagna di raccolta dati: misurazione di temperatura dell‟acqua e conducibilità elettrica con livello piezometrico (19/5-1/6/2021) - Seconda campagna di raccolta dati: misurazione di temperatura dell‟acqua e conducibilità elettrica con livello piezometrico (4/10-8/10/2021) - Campagna di caratterizzazione idrochimica con prelievo di campioni (18/10-29/10/2021) - Creazione di mappe piezometriche e di distribuzione dei parametri in situ - Analisi chimiche di laboratorio sui campioni d‟acqua. - Grafici idrochimici di interpretazione - Modello concettuale interpretativo Il lavoro di tesi è stato condotto in collaborazione con il Servizio Geologico, Sismico e dei Suoli della Regione Emilia-Romagna (dott. Paolo Severi) e, per la parte idrochimica, si è appoggiato al Laboratorio di Geochimica del Dipartimento BiGeA ed al Centro Interdipartimentale di Ricerca per le Scienze Ambientali a Ravenna (prof. Enrico Dinelli).