594 resultados para THz,attenuazione,assorbimento molecolare,propagazione ad alte frequenze,modello di propagazione
Resumo:
Le vene giugulari interne sembrano essere la via principale attraverso cui il sangue defluisce dal cervello verso il cuore, quando siamo in posizione supina. Nel 2008 il professor Paolo Zamboni ha scoperto che una diminuzione dell'attività giugulare può portare allo sviluppo di una condizione emodinamica chiamata CCSVI. Questa può causare ipossia, ritardi nella perfusione cerebrale e riduzione del drenaggio dei cataboliti, oltre ad un'attivazione infiammatoria delle piccole vene e dei tessuti vicini. Questa condizione è stata da subito associata alla sclerosi multipla e su questo argomento si sono dibattuti molti gruppi di ricerca. Inoltre, altre patologie sembrano essere associate alla CCSVI, come il morbo di Parkinson, l'Alzheimer e la sindrome di Meniere. Proprio quest'ultima è uno degli argomenti che attualmente interessa di più il gruppo di lavoro in cui mi sono inserita. Questa patologia comporta problemi uditivi, come sordità e tinnito, vertigini e nausea. Il gruppo Vascolar Disease Center (VDC) dell'Università di Ferrara ha previsto per l'anno 2015 uno studio multicentrico, in cui si cercherà di verificare la correlazione tra CCSVI e sindrome di Meniere. La mia tesi fa parte di un studio preliminare a quello multicentrico. All'inizio del lavoro mi sono dedicata ad un'analisi critica di un modello emodinamico per la quantificazione dei flussi sanguigni: il modello BMC, pubblicato nel 2013 dal gruppo VDC, effettuando in parallelo una ricerca bibliografica sullo stato dell'arte in materia. In seguito ho cominciato a studiare off-line diversi studi patologici e fisiologici, in modo da prendere confidenza con gli strumenti e con le metodologie da utilizzare. Sono stata poi coinvolta dal gruppo VDC per partecipare attivamente al miglioramento del protocollo legato al modello BMC. Infine ho analizzato, con due metodologie differenti, 35 studi effettuati su pazienti otorinolaringoiatrici. Con i risultati ottenuti ho potuto effettuare diverse analisi statistiche al fine di verificare l'equivalenza delle due metodologie. L'obiettivo ultimo era quello di stabilire quale delle due fosse la tecnica migliore da utilizzare, successivamente, nello studio multicentrico.
Resumo:
In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel progettare, realizzare e testare due collimatori multi-slit da applicare ad un sistema tomografico a raggi X con geometria cone-beam, caratterizzato da un voltaggio massimo di 320 kV. I collimatori che verranno realizzati sono un pre-collimatore e un post-collimatore entrambi multi-slit. Il fine ultimo è quello di riuscire ad avere un sistema di collimazione che permetta attraverso due sole tomografie di ottenere la ricostruzione dell'intero campione. L'abbattimento del tempo necessario per eseguire l'analisi costituisce il target su cui si basa questa tesi. Successivamente sulle immagini prodotte mediante questo nuovo sistema di collimazione saranno condotte delle specifiche analisi e i risultati saranno confrontati con quelli ottenuti mediante un sistema di collimazione a singola fenditura, anch'esso progettato in questa tesi e appositamente realizzato.
Resumo:
La mia esperienza con Microsoft SharePoint ha inizio durante il tirocinio svolto presso una famosa azienda bolognese tra fine settembre e metà novembre 2014. Durante questi due mesi ho avuto il piacere di confrontarmi con questa piattaforma e di studiarla allo scopo di carpire quali possano essere i vantaggi e gli svantaggi per un'impresa una volta che decidesse di investire su di essa. La decisione di scrivere una tesi su SharePoint e di aumentare la mia conoscenza su di esso, ha preso piede dentro di me in seguito allo sviluppo di una piccola applicazione d'esempio. Infatti in sole due settimane e senza scrivere una riga di codice, se non qualche piccolo script di css, sono stato in grado di realizzare un piccolo gestionale per uno studio di rappresentanza di abbigliamento. Grazie alla realizzazione di questo applicato ho potuto riscontrare l'effettiva forza del tool. Difatti, SharePoint, possiede un livello d'astrazione così elevato da offrire una o più soluzioni predefinite ad una vasta gamma di problemi di business, riducendo conseguentemente i tempi ed i costi di sviluppo. A questa motivazione si è aggiunta anche quella derivante dal fatto che la piattaforma viene usata da molte realtà aziendali di elevata importanza. A tal proposito una di queste mi ha concesso l'autorizzazione a sottoporle un'intervista.
Resumo:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Nel presente lavoro di tesi è stato sviluppato e testato un sistema BCI EEG-based che sfrutta la modulazione dei ritmi sensorimotori tramite immaginazione motoria della mano destra e della mano sinistra. Per migliorare la separabilità dei due stati mentali, in questo lavoro di tesi si è sfruttato l'algoritmo CSP (Common Spatial Pattern), in combinazione ad un classificatore lineare SVM. I due stati mentali richiesti sono stati impiegati per controllare il movimento (rotazione) di un modello di arto superiore a 1 grado di libertà, simulato sullo schermo. Il cuore del lavoro di tesi è consistito nello sviluppo del software del sistema BCI (basato su piattaforma LabVIEW 2011), descritto nella tesi. L'intero sistema è stato poi anche testato su 4 soggetti, per 6 sessioni di addestramento.
Resumo:
L'obiettivo della tesi è la creazione di un'infrastruttura di tipo RBAC (Role Based Access Control), adibita al controllo degli accessi all'interno del linguaggio di coordinazione TuCSoN. Il punto di partenza si basa sull'analisi del lavoro sviluppato dall'Ing. Galassi: "Modello di sicurezza e controllo di accesso in una infrastruttura di coordinazione: architettura e implementazione". Usando questa come base teorica di partenza, si sono estrapolati i concetti chiave e si è data vita ad un'implementazione funzionante e di semplice utilizzo di RBAC in TuCSoN.
Resumo:
Con questa tesi di laurea si muovono i primi passi di una ricerca applicata finalizzata alla costruzione-deposizione di materiale da parte di sciami di mini-robot dal comportamento indipendente che si coordinano tramite segnali lasciati e rilevati nell’ambiente in cui si muovono. Lo sviluppo di tecniche di progettazione e fabbricazione digitale ha prodotto un aumento nel grado di interconnessione tra tecnologia e design, dunque, di nuove possibilità tettoniche. Le relazioni tettoniche tradizionali stanno infatti subendo una trasformazione radicale, potendo essere esplicitamente informate e dunque mediate attraverso gli strumenti digitali dall’ideazione alla produzione. Questa mediazione informata del contenuto tettonico (che opera costantemente) è distintivo di un approccio material-based alla progettazione che aumenta l’integrazione tra struttura, materia e forma entro le tecnologie di fabbricazione (R.Oxman). Dei numerosi processi di fabbricazione per l’architettura che si servono di tecnologia robotica, pochi sono capaci di superare la logica gerarchica, rigida e lineare-sequenziale che serve di fatto agli obiettivi di automazione ed ottimizzazione. La distribuzione di forme di intelligenza semplificata ad un numero elevato di unità robot è quindi qui proposta come alternativa al modello appena descritto. Incorporando semplici decisioni di carattere architettonico negli agenti-robot che costituiscono il sistema distribuito di entità autonome, la loro interazione e le decisioni prese individualmente producono comportamento collettivo e l’integrazione delle suddette relazioni tettoniche. Nello sviluppo del progetto, si è fatto così riferimento a modelli comportamentali collettivi (di sciame) osservabili in specie comunitarie che organizzano strutture materiali -come termiti e vespe- ed in organismi semplici -come le muffe cellulari della specie Physarum polycephalum. Per queste specie biologiche il processo di costruzione non dipende da un ‘piano generale’ ma è guidato esclusivamente da azioni dei singoli individui che comunicano lasciando tracce chimiche nell’ambiente e modificano il loro comportamento rilevando le tracce lasciate dagli altri individui. A questo scopo, oltre alle simulazioni in digitale, è stato indispensabile sviluppare dei prototipi funzionali di tipo fisico, ovvero la realizzazione di mini-robot dal movimento indipendente, in grado di coordinarsi tra loro tramite segnali lasciati nell’ambiente e capaci di depositare materiale.
Resumo:
In questa tesi si cerca di fornire un quadro generale sulle Opzioni Asiatiche dandone prima una descrizione in termini economici e successivamente una classificazione matematica più rigorosa. Nel primo capitolo vengono presentati strumenti matematici e finanziari indispensabili per affrontare la comprensione dell'argomento centrale: vengono esposti i concetti di derivato e di strategia d'arbitraggio ed inoltre viene mostrato il modello di mercato a tempo discreto; in particolar modo viene descritto il modello binomiale come esempio di mercato completo. Nel secondo capitolo viene fatta una breve introduzione sulle Opzioni Esotiche di cui sono un particolare esempio le Opzioni Asiatiche, le quali vengono successivamente classificate e descritte più dettagliatamente. Infine nel terzo capitolo viene introdotto il problema della valutazione e della copertura di un'Opzione Asiatica, trattando una particolare tecnica utilizzata nei modelli di mercato discreti di tipo binomiale, la tecnica ad albero, che viene poi applicata ad un esempio reale.
Resumo:
Il BTA (benzotriazolo), largamente impiegato nei protettivi per metalli utilizzati commercialmente, in particolare per la conservazione dei beni culturali, presenta problematiche riguardo il progressivo impoverimento di quest'ultimo legato alla sua volatilità, con conseguente perdita di efficacia antiossidante del film e rischi per la salute e per l'ambiente, data la tossicità del composto. Lo scopo di questo lavoro è stato di mettere a punto un polimero per il coating ecofriendly (PLA, polimero proveniente da materie prime rinnovabili) ed efficiente (polimero funzionalizzato con BTA, il quale essendo legato chimicamente alla catena di polimero, è maggiormente trattenuto all'interno del materiale) come valida alternativa a quelli reperibili commercialmente. In questo lavoro di tesi è stato sintetizzato un derivato funzionalizzato del benzotriazolo, molto usato per la conservazione dei beni culturali, in modo da essere utilizzato come iniziatore di polimerizzazione ROP di rac-lattide. In questo modo sono stati messi a punto, modulandone il peso molecolare attraverso la variazione della quantità di iniziatore, alcuni polimeri di poli-acido lattico con una molecola di benzotriazolo legata alla estremità carbossilica di ogni catena, legame che ne limita molto la fuoriuscita dal film. In seguito è stata testata l'efficacia di questi polimeri come alternativa a quelli utilizzati commercialmente nel campo della conservazione dei beni culturali, applicando uno strato di essi su dei provini di bronzo e sottoponendoli a diversi processi di invecchiamento, confrontando il loro comportamento con quello di un prodotto commerciale preso a paragone e con quello di PLA privo di funzionalizzazioni additivato di benzotriazolo. Particolare attenzione è stata posta, non solo sul tasso di degradazione al quale sono andati in contro, ma, visto l'ambito artistico, anche le modificazioni estetiche che i provini hanno subito dopo l'applicazione e dopo l'invecchiamento servendosi di misure di colore e foto che ne monitorassero i cambiamenti.
Stima ottimale del guadagno del filtro di Kalman per l'analisi del cammino tramite sensori inerziali
Resumo:
L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.
Resumo:
L’obiettivo della seguente tesi è quello di illustrare le condizioni in cui avviene il trasferimento di conoscenza da consulente a cliente, e come questo sia il fattore abilitante per l’esistenza e l’utilizzo di tale figura professionale da parte delle organizzazioni. Questa tesi nasce dall’esperienza vissuta durante la partecipazione alla XXIV edizione di Junior Consulting, un programma organizzato da CONSEL - ELIS presso Roma, che ha permesso al sottoscritto di prendere parte al progetto di consulenza “Engineering & Construction - Performance Monitoring System” commissionato da Enel Green Power. L’esigenza manifestata dall’azienda era quella di riuscire ad avere una visione chiara e definita della qualità delle attività svolte dalla funzione Engineering & Construction (E&C) e quindi l’obiettivo del progetto si è concretizzato nella definizione di un set di KPI idoneo a rappresentare una misura delle performance della suddetta funzione. Avendo testato, seppure per pochi mesi, l’attività consulenziale, il candidato ha compiuto uno studio teorico che andasse ad analizzare in dettaglio l’attività del consulente, la sua importanza nel mondo economico, il contesto in cui opera e i principali dibattiti accademici di cui è protagonista negli ultimi anni. Nell’elaborato viene analizzato il caso pratico sulla base degli studi della letteratura, con lo scopo di formulare un modello che descriva l’approccio che il consulente dovrebbe avere, durante lo svolgimento delle sue attività, per la realizzazione del trasferimento di conoscenza. Nel primo capitolo è riportato uno studio relativo all’importanza e agli effetti che le società di consulenza hanno avuto nell’ultimo secolo ed in particolare negli ultimi 30 anni. Nel secondo capitolo è descritto il core asset delle società di consulenza, ovvero la conoscenza, e come questa è strutturata e gestita. Nel terzo capitolo sono analizzate le principali teorie sviluppate sulla figura del consulente, sia l’evoluzione storica che le principali posizioni ancora oggi oggetto di dibattito. Nel quarto capitolo l’attenzione è focalizzata sul trasferimento di conoscenza da consulente a cliente e sulle condizioni in cui questo può avvenire. Nel quinto capitolo è presentato il progetto sopracitato, i cui risultati sono riportati negli allegati 1 e 2. Infine, nel sesto capitolo, è presentato un modello di approccio del consulente ottenuto dall’analisi critica del caso pratico sulla base delle evidenze emerse dallo studio della letteratura.