308 resultados para transistor elettrochimici organici, OECTs, PEDOT:PSS, sensori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi mi occupo di spiegare come si comportano i veicoli autonomi per prendere tutte le decisioni e come i dati dei sensori di ogni auto vengono condivisi con la flotta di veicoli

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con Brain-Computer Interface si intende un collegamento diretto tra cervello e macchina, che essa sia un computer o un qualsiasi dispositivo esterno, senza l’utilizzo di muscoli. Grazie a sensori applicati alla cute del cranio i segnali cerebrali del paziente vengono rilevati, elaborati, classificati (per mezzo di un calcolatore) e infine inviati come output a un device esterno. Grazie all'utilizzo delle BCI, persone con gravi disabilità motorie o comunicative (per esempio malati di SLA o persone colpite dalla sindrome del chiavistello) hanno la possibilità di migliorare la propria qualità di vita. L'obiettivo di questa tesi è quello di fornire una panoramica nell'ambito dell'interfaccia cervello-computer, mostrando le tipologie esistenti, cercando di farne un'analisi critica sui pro e i contro di ogni applicazione, ponendo maggior attenzione sull'uso dell’elettroencefalografia come strumento per l’acquisizione dei segnali in ingresso all'interfaccia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il software Smart-M3, ereditato dal progetto europeo SOFIA, conclusosi nel 2011, permette di creare una piattaforma d'interoperabilità indipendente dal tipo di dispositivi e dal loro dominio di utilizzo e che miri a fornire un Web Semantico di informazioni condivisibili fra entità software e dispositivi, creando ambienti intelligenti e collegamenti tra il mondo reale e virtuale. Questo è un campo in continua ascesa grazie al progressivo e regolare sviluppo sia della tecnologia, nell'ambito della miniaturizzazione dei dispositivi, che delle potenzialità dei sistemi embedded. Questi sistemi permettono, tramite l'uso sempre maggiore di sensori e attuatori, l'elaborazione delle informazioni provenienti dall’esterno. È evidente, come un software di tale portata, possa avere una molteplicità di applicazioni, alcune delle quali, nell’ambito della Biomedica, può esprimersi nella telemedicina e nei sistemi e-Heath. Per e-Health si intende infatti l’utilizzo di strumenti basati sulle tecnologie dell'informazione e della comunicazione, per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita. Obiettivo di questa tesi è fornire un set di dati che mirino ad ottimizzare e perfezionare i criteri nella scelta applicativa di tali strutture. Misureremo prestazioni e capacità di svolgere più o meno velocemente, precisamente ed accuratamente, un particolare compito per cui tale software è stato progettato. Ciò si costruisce sull’esecuzione di un benchmark su diverse implementazioni di Smart-M3 ed in particolare sul componente centrale denominato SIB (Semantic Information Broker).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha studiato a fondo le modalità di funzionamento del convertitore ZETA. Si è visto che la presenza dei due magnetici determina una condizione di funzionamento non convenzionale (lo stesso accade nel SEPIC) poco studiata in letteratura. Questa condizione, corrispondente al modo discontinuo nei più elementari convertitori, in cui la corrente si annulla sia nel transistor che nel diodo, dà invece luogo ad un ricircolo di corrente pressochè costante in una maglia che comprende entrambe le induttanze. Questa corrente testimonia un intrappolamento di energia magnetica con relativa perdita per dissipazione che presumibilmente degrada l’efficienza del convertitore. Questo è potuto avvenire perchè non vi è nulla che impedisca il flusso di una corrente negativa sui singoli induttori quando la somma algebrica dei due risulti comunque positiva o nulla (diodo in conduzione). Questo problema si può riscontrare sia nel funzionamento in continua (sempre almeno uno fra transistor e diodo in conduzione) che in discontinua (con un intervallo di tempo in cui non conducono nessuno dei due). Per ovviare a questo problema le soluzioni proposte in questa tesi sono quelle di aggiungere un ulteriore diodo rettificatore in serie agli avvolgimenti e/o di gestire il rapporto di induttanze dei due avvolgimenti in modo che nella condizione nominale di funzionamento raggiungano contemporaneamente la condizione di inversione della corrente. Queste possibilità sono state esplorate con successo nell’utilizzo del convertitore ZETA per applicazioni di correzione del fattore di potenza PFC in cui si è proposto un insieme di equazioni di dimensionamento che portano al progetto del convertitore al fine di ottenere le forme d’onda desiderate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato concerne la revisione della letteratura scientifica relativa alla teorizzazione e realizzazione tecnologica del memristor, un nuovo componente elettronico teorizzato nel 1971 e realizzato solo nel 2008 nei laboratori della HP (Hewlett Packard, Palo Alto, California). Dopo una descrizione in termini matematici della teoria fisica alla base del dispositivo e del suo funzionamento, viene descritta la sua realizzazione tecnologica e il corrispettivo modello teorico. Succesivamente il lavoro discute la possibile analogia tra il funzionamento del memristor ed il funzionamento di neuroni e sinapsi biologiche all'interno del Sistema Nervoso Centrale. Infine, vengono descritte le architetture recentemente proposte per l'implementazione di reti neurali artificiali fondate su un sistema computazionale parallelo e realizzate mediante sistemi ibridi transistors/memristors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli oceani coprono quasi il 75% della superficie della terra ed esercitano una grande influenza sulla vita di tutte le specie viventi e sull’evoluzione del clima a livello planetario. I repentini cambiamenti climatici hanno reso sempre piú importante studiarne i comportamenti. L’analisi della salinitá degli oceani é estremamente importante per gli studi sull’ambiente marino; puó essere usata per tracciare le masse d’acqua, descrivendone i flussi e svelandone la correlazione con i processi climatici, puó essere di aiuto ai biologi per studiare gli organismi marini e costituisce un parametro fondamentale per una vasta gamma di sensori. Un sistema autonomo che misuri conducibilitá e temperatura é il primo strumento per determinare la salinitá dell’acqua, sul mercato sono presenti sí numerosi sensori a elevata accuratezza ma necessitano di ingombranti strumenti di laboratorio per funzionare. Sistemi di ridotte dimensioni non sono invece altrettanto accurati ed affidabili. Questa tesi mira a sviluppare un'interfaccia che permetta di analizzare conducibilitá e temperatura con un elevato livello di accuratezza. Particolare attenzione sará posta all’elaborazione delle misure effettuate e alla caratterizzazione degli errori e dell’accuratezza del sistema. Partendo da queste basi in futuro si potrá creare un sistema autonomo a bassissima potenza, alimentato da batterie, che, basandosi sull’iterazione fra il chip impedenziometrico e il PIC, permetta di fare misure per un ciclo di vita di qualche anno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis work proposes a new physical equivalent circuit model for a recently proposed semiconductor transistor, a 2-drain MSET (Multiple State Electrostatically Formed Nanowire Transistor). It presents a new software-based experimental setup that has been developed for carrying out numerical simulations on the device and on equivalent circuits. As of 2015, we have already approached the scaling limits of the ubiquitous CMOS technology that has been in the forefront of mainstream technological advancement, so many researchers are exploring different ideas in the realm of electrical devices for logical applications, among them MSET transistors. The idea that underlies MSETs is that a single multiple-terminal device could replace many traditional transistors. In particular a 2-drain MSET is akin to a silicon multiplexer, consisting in a Junction FET with independent gates, but with a split drain, so that a voltage-controlled conductive path can connect either of the drains to the source. The first chapter of this work presents the theory of classical JFETs and its common equivalent circuit models. The physical model and its derivation are presented, the current state of equivalent circuits for the JFET is discussed. A physical model of a JFET with two independent gates has been developed, deriving it from previous results, and is presented at the end of the chapter. A review of the characteristics of MSET device is shown in chapter 2. In this chapter, the proposed physical model and its formulation are presented. A listing for the SPICE model was attached as an appendix at the end of this document. Chapter 3 concerns the results of the numerical simulations on the device. At first the research for a suitable geometry is discussed and then comparisons between results from finite-elements simulations and equivalent circuit runs are made. Where points of challenging divergence were found between the two numerical results, the relevant physical processes are discussed. In the fourth chapter the experimental setup is discussed. The GUI-based environments that allow to explore the four-dimensional solution space and to analyze the physical variables inside the device are described. It is shown how this software project has been structured to overcome technical challenges in structuring multiple simulations in sequence, and to provide for a flexible platform for future research in the field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idrotermocarbonizzazione è un processo che permette di convertire un’elevata quantità di materie prime solide in carbone. Ciò viene realizzato inserendo come sostanza in input, oltre alla materia prima iniziale, acqua liquida e, successivamente, riscaldando fino a 180°C, temperatura alla quale inizia la reazione esotermica ed il processo diventa di tipo stand-alone. Tale reazione presenta un tempo di reazione variabile nel range di 4÷12 h. I prodotti in uscita sono costituiti da una sostanza solida che ha le caratteristiche del carbone marrone naturale e un’acqua di processo, la quale è altamente inquinata da composti organici. In questo elaborato viene illustrata una caratterizzazione dei prodotti in uscita da un impianto di idrotermo carbonizzazione da laboratorio, il quale utilizza in input pezzi di legno tagliati grossolanamente. Inizialmente tale impianto da laboratorio viene descritto nel dettaglio, dopodiché la caratterizzazione viene effettuata attraverso DTA-TGA dei materiali in ingresso ed uscita; inoltre altre sostanze vengono così analizzate, al fine di confrontarle col char ed i pezzi di legno. Quindi si riporta anche un’analisi calorimetrica, avente l’obiettivo di determinare il calore di combustione del char ottenuto; attraverso questo valore e il calore di combustione dei pezzi di legno è stato possibile calcolare l’efficienza di ritenzione energetica del processo considerato, così come la densificazione energetica riscontrata nel materiale in uscita. In aggiunta, è stata eseguita un’analisi delle specie chimiche elementari sul char ed il legno in modo da determinare i seguenti parametri: fattori di ritenzione e fattori di ritenzione pesati sulla massa in termini di concentrazione di C, H, N e S. I risultati ottenuti da tale analisi hanno permesso di effettuare una caratterizzazione del char. Un tentativo di attivazione del char viene riportato, descrivendo la procedura di attivazione seguita e la metodologia utilizzata per valutare il buon esito o meno di tale tentativo di attivazione. La metodologia consiste di uno studio isotermo dell’adsorbimento di acido acetico sul char “attivato” attraverso una titolazione. I risultati sperimentali sono stati fittati usando le isoterme di Langmuir e Freundlich e confrontati con le capacità di adsorbimento del semplice char e di un campione di carbone attivo preso da un’azienda esterna. Infine si è considerata l’acqua di processo, infatti un’analisi fotometrica ne ha evidenziato le concentrazioni di TOC, COD, ioni nitrato e ioni fosfato. Questi valori sono stati conseguentemente confrontati con i limiti italiani e tedeschi massimi ammissibili per acque potabili, dando quindi un’idea quantitativa della contaminazione di tale acqua di processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra i prodotti vegani più richiesti vi sono i “formaggi” vegani, alimenti fermentati a base di frutta secca o ottenuti attraverso trattamenti su latte di mandorla e latte di soia, e successivamente fermentati. Nella mia attività ho caratterizzato un alimento fermentato vegano e studiato la successione microbica durante la fermentazione di un “formaggio” ottenuto partendo da anacardi e preparato in maniera artigianale. Oltre agli aspetti microbiologici, ho analizzato anche alcune caratteristiche fisico chimiche. Durante il processo di produzione gli anacardi vengono messi in ammollo per 8 ore a temperatura ambiente e, successivamente, i semi vengono scolati e risciacquati sotto acqua corrente. Gli anacardi vengono poi addizionati di acqua e microrganismi probiotici e tritati in un mixer fino al raggiungimento di una crema omogenea. A questo punto il prodotto viene lasciato riposare a temperatura ambiente per 48 ore durante le quali ha luogo la fermentazione e poi addizionato di ingredienti. Le indagini chimico fisiche effettuate hanno evidenziato che il pH si mostra già basso prima dell’inizio della fermentazione vera e propria e scende a 4.5 dopo 48 ore di riposo a causa dell’accumulo di acidi organici, ed in particolare di acido lattico e acetico che indicando un’attività fermentativa condotta dai batteri lattici. Le analisi microbiologiche hanno confermato che l’effettivo agente di fermentazione era costituito da questi batteri che sono stati identificati a livello molecolare. Le specie identificate due eterofermentanti (Weissella e Leuconostoc), presenti soprattutto nelle prime fasi della fermentazione, ed una omofermentante (Pediococcus), prende il sopravvento mano a mano che la fermentazione procede. Il lavoro svolto ha permesso di ottenere alcune importanti informazioni per la produzione industriale di un “formaggio” vegano fermentato. Il processo studiato presenta numerosi punti di rischio che devono essere presi in considerazione prima di poter giungere alla messa a punto di un prodotto definitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di Tesi, svolto nell’ambito dell’esperimento BEC3 presso il LENS, costituisce il primo approccio al problema della stabilizzazione del campo magnetico di bias in una trappola per atomi ultra-freddi. Stabilizzare il campo magnetico generato da una coppia di bobine si traduce nello stabilizzare la corrente che le attraversa e il primo passo verso la soluzione di questo problema consiste nello stimare lo spettro di potenza del rumore in corrente del circuito. A questo scopo è stata misurata la PSD (Power Spectral Density) del segnale ai capi di diversi sensori per alcuni valori di corrente erogata da due diversi alimentatori. La PSD è stata misurata sia in maniera diretta, che indiretta, attraverso la trasformata di Fourier della Funzione di Autocorrelazione del segnale, misurata nelle stesse condizioni descritte. I dati raccolti costituiscono la base da cui partire per la progettazione e la realizzazione del circuito di stabilizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tramite i sensori inerziali sono stati analizzati 17 bambini (10-16 mesi) durante i primi 2 mesi di cammino indipendente. Sono stati acquisiti i parametri temporali e analizzata la simmetria del passo differenziando i parametri su gamba destra e su gamba sinistra. Si è riscontrato che gli andamenti dei parametri sono in linea generale in accordo con la letteratura. Analizzando la simmetria si è evidenziato che la differenza tra Stance- time destro e Stance- time sinistro per alcuni soggetti è più bassa e per altri più alta. Tali studi saranno importanti per approfondire ulteriormente in futuro aspetti sulle strategie del passo nei primi due mesi di cammino indipendente.