273 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
Durante la vita operativa di un aeromobile, gli elementi costitutivi possono essere soggetti a diverse tipologie di carichi. Questi carichi possono provocare la nascita e la propagazione di eventuali cricche, le quali una volta raggiunta una determinata dimensione possono portare alla rottura del componente stesso causando gravi incidenti. A tale proposito, la fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche. Lo studio e l’applicazione dei principi di fatica sugli aeroplani sono relativamente recenti, in quanto inizialmente gli aerei erano realizzati in tela e legno, un materiale che non soffre di fatica e assorbe le vibrazioni. I materiali aeronautici si sono evoluti nel tempo fino ad arrivare all’impiego dei materiali compositi per la costruzione degli aeromobili, nel 21. secolo. Il legame tra nascita/propagazione delle cricche e le tensioni residue ha portato allo sviluppo di numerose tecniche per la misurazione di queste ultime, con il fine di contrastare il fenomeno di rottura a fatica. Per la misurazione delle tensioni residue nei componenti metallici esistono diverse normative di riferimento, al contrario, per i materiali compositi, la normativa di riferimento è tuttora oggetto di studio. Lo scopo di questa tesi è quello di realizzare una ricerca e studiare dei metodi di riferimento per la misurazione delle tensioni residue nei laminati compositi, tramite l’approfondimento di una tecnica di misurazione delle tensioni residue, denominata Incremental Hole Drilling.
Resumo:
In questa tesi si discute la formulazione di una teoria quantistica della dinamica libera di particelle e stringhe relativistiche. La dinamica relativistica viene costruita in entrambi i casi a partire dalla formulazione classica con invarianza di gauge della parametrizzazione di, rispettivamente, linee e fogli di mondo. Si scelgono poi condizioni di gauge-fixing dette di cono-luce. La teoria quantistica viene poi formulata usando le prescrizioni di quantizzazione canonica di Dirac.
Resumo:
L'elaborato è finalizzato a presentare l'analisi degli operatori differenziali agenti in meccanica quantistica e la teoria degli operatori di Sturm-Liouville. Nel primo capitolo vengono analizzati gli operatori differenziali e le relative proprietà. Viene studiata la loro autoaggiunzione su vari domini con diverse condizioni al contorno e vengono tratte delle conclusioni sul loro significato come osservabili. Nel secondo capitolo viene presentato il concetto di spettro e vengono studiate le sue proprietà.Vengono poi analizzati gli spettri degli operatori precedentemente introdotti. Nell'utimo capitolo vengono presentati gli operatori di Sturm-Liouville e alcune proprietà delle equazioni differenziali. Vengono imposte delle specifiche condizioni al contorno che determinano la realizzazione dei sistemi di Sturm-Liouville, di cui vengono studiati due esempi notevoli: le guide d'onda e la conduzione del calore.
Resumo:
Il diabete mellito (DM) è una delle malattie endocrine più comuni nel cane. Una volta raggiunta la diagnosi di DM, è necessario iniziare un trattamento insulinico nonché una dieta specifica, al fine di controllare i livelli di glucosio nel sangue e di conseguenza i segni clinici. Inoltre, al fine di ottenere un buon controllo glicemico, è essenziale garantire uno stretto monitoraggio terapeutico. Nella presente tesi sono riportati numerosi studi relativi a trattamento, monitoraggio e prognosi dei cani con DM. Il capitolo 2 è una review che illustra i principali aspetti terapeutici e di monitoraggio del DM. Il capitolo 3 riporta uno studio che confronta l'efficacia e la sicurezza dell'insulina Lenta e dell'insulina Neutra Protamine Hagedorn (NPH). I metodi di monitoraggio per cani con DM possono essere classificati in diretti od indiretti. I metodi di monitoraggio diretto includono misurazioni serali della glicemia o monitoraggio continuo del glucosio interstiziale tramite appositi dispositivi (Continuous Glucose Monitoring System, CGMS). Le modalità indirette comprendono la valutazione dell'assunzione di acqua e del peso corporeo, la quantificazione del glucosio/chetoni nelle urine e la misurazione delle concentrazioni di proteine glicate. Il capitolo 4 mostra uno studio volto a valutare l'accuratezza e la precisione di un glucometro e un glucometro/chetometro nel cane. Il Flash Glucose Monitoring system è un CGMS recentemente validato per l'uso nel cane; la sua utilità clinica nel monitoraggio del DM canino è esaminata nel capitolo 5. Il capitolo 6 descrive uno studio in cui si validano 2 metodi analitici per la misurazione delle fruttosamine sieriche e dell'emoglobina glicata nel cane e confronta l’utilità delle due proteine glicate nel definire il controllo glicemico. Infine, il capitolo 7 riporta uno studio finalizzato a determinare il tempo di sopravvivenza e ad identificare il valore prognostico di diverse variabili cliniche e clinico-patologiche nei cani con DM.
Resumo:
La percezione dello spazio urbano, nella sua complessità, risente inevitabilmente dello stratificarsi, nel tempo, di significati storici, ideologie, archetipi e utopie attraverso i quali la società, nei suoi diversi stadi di sviluppo, ha consolidato l'idea di centro abitato. Nel mondo contemporaneo, la città narrata si sovrappone sempre di più a quella reale, organizzando e sintetizzando i processi interpretativi dei circuiti urbani: al cityscape, il panorama fisico della città, si antepone il suo mindscape, il panorama dell'anima e delle culture urbane. In sintonia con tali prospettive, la presente ricerca si propone di analizzare i processi comunicativi e i paradigmi mediatici che attraversano e ridefiniscono le dinamiche urbane, prendendo in esame gli strumenti e i linguaggi che concorrono a disegnare e raccontare l'immagine di una città. In tale contesto, il progetto prende in considerazione come case study la singolare situazione del distretto universitario intorno a via Zamboni a Bologna: un'arteria di straordinaria bellezza e vitalità, cui tuttavia non corrisponde un'immagine pubblica altrettanto positiva. La tesi ha analizzato in particolare l’immagine pubblica e la percezione di via Zamboni e di piazza Verdi dai primi del Novecento a oggi, in relazione ai principali eventi che le hanno viste come scenari privilegiati. Prendendo in considerazione un arco di tempo di oltre un secolo, sono stati selezionati alcuni momenti topici, occasioni culturali o accadimenti con una forte connotazione simbolica: dalla Liberazione alle manifestazioni del ’77, dalle storiche ‘prime’ del Teatro Comunale agli allestimenti della Pinacoteca, dalle lezioni di professori universitari di chiara fama alle più recenti contestazioni studentesche. Il risultato è un racconto stratificato che attraversa segni e immagini per ricostruire l’iconografia del quartiere attraverso testi, fotografie, filmati, opere d’arte o prodotti multimediali.
Resumo:
Il lavoro si è articolato in due parti: sintesi di una molecola antiossidante (lipofenolo), che in prospettiva dovrà essere prodotta a partire da sottoprodotti dell’industria alimentare. La molecola ottenuta, già studiata nello sviluppo di emulsioni, è stata in questo lavoro testata nella formulazione di prodotti da forno, nei quali l’ossidazione lipidica è un processo difficilmente controllabile, se non con l’impiego di grassi saturi, come palma o strutto e sego. L’ossidazione incide profondamente sulla qualità e sulla sicurezza dell’alimento. È per questo che numerosi studi si sono rivolti, in questi anni, verso i meccanismi di antiossidazione nei sistemi reali. Partendo da una panoramica sui sottoprodotti della filiera alimentare, in questo lavoro si è ottimizzata una reazione di lipofilizzazione tra tirosolo e acido oleico e si è impiegato il prodotto nella formulazione tarallini per verificarne l’effettiva capacità di allungare la shelf life del prodotto ritardando l’insorgenza dell’ossidazione, con esiti più che soddisfacenti evidenziati dai dati ottenuti tramite tecniche di ossidazione forzata (Oxitest®) , analisi della componente volatile (SPME-GC-MS) e misurazione del numero di perossido.
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Progetto di Sistemi di Regolazione dell'Alimentazione ad Alta Affidabilità per Processori Multi-Core
Resumo:
Quasi tutti i componenti del FIVR (regolatore di tensione Buck che fornisce l'alimentazione ai microprocessori multi-core) sono implementati sul die del SoC e quindi soffrono di problemi di affidabilità associati allo scaling della tecnologia microelettronica. In particolare, la variazione dei parametri di processo durante la fabbricazione e i guasti nei dispostivi di switching (circuiti aperti o cortocircuiti). Questa tesi si svolge in ambito di un progetto di ricerca in collaborazione con Intel Corporation, ed è stato sviluppato in due parti: Inizialmente è stato arricchito il lavoro di analisi dei guasti su FIVR, svolgendo un accurato studio su quelli che sono i principali effetti dell’invecchiamento sulle uscite dei regolatori di tensione integrati su chip. Successivamente è stato sviluppato uno schema di monitoraggio a basso costo in grado di rilevare gli effetti dei guasti più probabili del FIVR sul campo. Inoltre, lo schema sviluppato è in grado di rilevare, durante il tempo di vita del FIVR, gli effetti di invecchiamento che inducono un incorretto funzionamento del FIVR. Lo schema di monitoraggio è stato progettato in maniera tale che risulti self-checking nei confronti dei suoi guasti interni, questo per evitare che tali errori possano compromettere la corretta segnalazione di guasti sul FIVR.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Durante lo studio riportato in questo elaborato finale sono state valutate le informazioni disponibili in letteratura relative alla caratterizzazione fisico-chimica e alle proprietà fisico-meccaniche di due prodotti da forno a confronto: tortillas e piadine. Per quanto riguarda le tortillas, sono state esaminate le informazioni relative alle proprietà fisico-meccaniche di tortillas attraverso diverse tecniche di arrotolabilità (soggettiva ed oggettiva) e di estensibilità. La misurazione oggettiva della arrotolabilità è stata condotta utilizzando un TA.XT2 Texture Analyzer equipaggiato di un dispositivo di arrotolamento personalizzato. L'apparecchiatura è composta da un tassello cilindrico in acrilico (Ø 1,9 cm) e da una catena metallica che collega il tassello del cilindro al braccio dell'analizzatore di texture (3.5). Per quanto riguarda le piadine, è stato riportato uno studio sulle caratteristiche chimico-fisiche, condotto su 12 piadine , in ci sono stai esaminati parametri quali Il pH, il contenuto di umidità, l'attività dell’acqua, Il test di estensibilità e il test di flessione a tre punti al fine di valutare le proprietà fisico-chimiche e meccaniche oggettive dei campioni . Le analisi fisico-chimiche hanno dimostrato valori costanti durante i primi 30 giorni di conservazione mentre la arrotolabilità soggettiva è risultata significativamente influenzata dal tempo di conservazione con punteggi ridotti osservati durante la conservazione . Infine, è stato fatto uno studio comparativo tra piadina e tortillas anche in relazione alle farcire e le caratteristiche strutturali relative. In conclusione si può affermare che potranno essere utilizzate le procedure di valutazione delle caratteristiche delle tortillas, maggiormente presenti nella letteratura internazionale, per lo studio delle proprietà fisico-meccaniche delle piadine anche al fine di creare prodotti innovativi a base del popolare prodotto da forno della Romagna.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
La presente tesi ha lo scopo di esporre i risultati dello studio effettuato nel comune di Minerbio, a seguito della segnalazione di un pozzo la cui acqua aveva iniziato a presentare anomalie di composizione con problemi alle colture. Si è quindi deciso di ricostruire la situazione idrogeologica della zona tramite un censimento pozzi, uno studio piezometrico ed una caratterizzazione idrochimica, il tutto agganciato ai data-base geologici del luogo derivati dalle banche dati del Servizio Geologico, Sismico e dei Suoli della Regione Emilia-Romagna. L‟obiettivo era comprendere le cause della specifica anomalia e di altre presenti nell‟area proponendo un modello concettuale interpretativo. A tale scopo è stata seguita come metodologia operativa la seguente: - Consultazione della cartografia tematica dell‟area (carta topografica, carta geologica e dei suoli) - Sopralluoghi per identificazione dei pozzi per le definizione di una rete piezometrica ed idrochimica. - Prima campagna di raccolta dati: misurazione di temperatura dell‟acqua e conducibilità elettrica con livello piezometrico (19/5-1/6/2021) - Seconda campagna di raccolta dati: misurazione di temperatura dell‟acqua e conducibilità elettrica con livello piezometrico (4/10-8/10/2021) - Campagna di caratterizzazione idrochimica con prelievo di campioni (18/10-29/10/2021) - Creazione di mappe piezometriche e di distribuzione dei parametri in situ - Analisi chimiche di laboratorio sui campioni d‟acqua. - Grafici idrochimici di interpretazione - Modello concettuale interpretativo Il lavoro di tesi è stato condotto in collaborazione con il Servizio Geologico, Sismico e dei Suoli della Regione Emilia-Romagna (dott. Paolo Severi) e, per la parte idrochimica, si è appoggiato al Laboratorio di Geochimica del Dipartimento BiGeA ed al Centro Interdipartimentale di Ricerca per le Scienze Ambientali a Ravenna (prof. Enrico Dinelli).
Resumo:
L’elaborazione di quantità di dati sempre crescente ed in tempi ragionevoli è una delle principali sfide tecnologiche del momento. La difficoltà non risiede esclusivamente nel disporre di motori di elaborazione efficienti e in grado di eseguire la computazione coordinata su un’enorme mole di dati, ma anche nel fornire agli sviluppatori di tali applicazioni strumenti di sviluppo che risultino intuitivi nell’utilizzo e facili nella messa in opera, con lo scopo di ridurre il tempo necessario a realizzare concretamente un’idea di applicazione e abbassare le barriere all’ingresso degli strumenti software disponibili. Questo lavoro di tesi prende in esame il progetto RAM3S, il cui intento è quello di semplificare la realizzazione di applicazioni di elaborazione dati basate su piattaforme di Stream Processing quali Spark, Storm, Flinke e Samza, e si occupa di esaudire il suo scopo originale fornendo un framework astratto ed estensibile per la definizione di applicazioni di stream processing, capaci di eseguire indistintamente sulle piattaforme disponibili sul mercato.