217 resultados para "computazione quantistica", "circuiti quantistici", "misurazione"
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
L'ecografia con mezzo di contrasto è una tecnica non invasiva che consente di visualizzare la micro e la macrocircolazione grazie all'utilizzo di microbolle gassose che si distribuiscono in tutto il sistema cardiovascolare. Le informazioni emodinamiche e perfusionali ricavabili dalle immagini eco con contrasto possono essere utilizzate per costruire un modello a grafo dell'albero vascolare epatico. L'analisi della connettività del grafo rappresenta una strategia molto promettente che potrebbe consentire di sostituire la misurazione del gradiente pressorio venoso del fegato, che richiede cateterismo, determinando un notevole miglioramento nella gestione dei pazienti cirrotici. La presente tesi si occupa della correzione dei movimenti del fegato, che deve essere realizzata prima di costruire il grafo per garantire un'accuratezza adeguata. Per correggere i movimenti è proposta una tecnica di Speckle tracking, testata sia in vitro su sequenze eco sintetiche, sia in vivo su sequenze reali fornite dal Policlinico Sant'Orsola.
Resumo:
L'obiettivo di questa tesi è il contributo alla realizzazione della veneziana frangisole intelligente, attraverso la caratterizzazione dei sensori di temperatura e luminosità e ulteriori simulazioni della veneziana riguardanti gli effetti di bordo. Successivamente si è proceduto alla misurazione pratica della potenza incidente, con gli opportuni strumenti, per verificare l'accuratezza delle simulazioni e prendere provvedimenti nel caso di riscontri negativi.
Resumo:
La tecnologia odierna, orientata sempre di più verso il “low-power”, ha permesso di poter sviluppare sistemi elettronici in grado di autoalimentarsi senza alcun bisogno di sorgenti di energia tradizionali. Questo è possibile, ad esempio, utilizzando trasduttori piezoelettrici, in grado di trasformare l’energia meccanica, provocata ad esempio da una vibrazione, in un’altra forma di energia che, in tal caso, risulta essere una grandezza elettrica. Il settore principale in cui viene impiegato questo componente è quello dell’Energy Harvesting, ovvero un campo dell’elettronica in cui si cerca di estrarre dall'ambiente circostante bassissime quantità di energia mediante tecniche opportune, cercando di ridurre i consumi dei circuiti di controllo annessi e renderli, in maggior parte, il più possibile autosufficienti. L’obiettivo è quello di implementare alcune tecniche di recupero dell’energia mediante circuiti gestiti a microcontrollore e valutare se tali metodiche portino a risultati accettabili in grado di soddisfare quelli che sono i requisiti che il mondo dell’Energy Harvesting richiede.
Resumo:
L'obiettivo della tesi è esplorare i più avanzati dispositivi, sensori e processori per la computazione spaziale, correlarli con i modelli di spatial computing, e derivarne un'architettura concettuale di middleware distribuito che possa supportare le più avanzate applicazioni in mobilità.
Resumo:
Analisi della corrente rettificata di potassio IKr all'interno di tre modelli di potenziale d'azione ventricolare umano, e confronto con dati sperimentali in letteratura.
Resumo:
Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.
Resumo:
Analisi della Massa come grandezza fisica. Accenni ai metodi utilizzati in Astrofisica per la sua misurazione; massa di Jeans; Materia Oscura; limite di Chandrasekhar; diagramma H-R; sistemi doppi; trasferimento di massa e Funzione di massa.
Propagazione di luce in mezzi disordinati: Misure di trasporto diffusivo tramite imaging stazionario
Resumo:
Nel presente lavoro di tesi è stato effettuato uno studio del trasporto di luce in sistemi diffusivi. Per effettuare tale studio è stato allestito un apparato sperimentale ottimizzato per acquisire profili di trasmissione risolti spazialmente di campioni con geometria a slab. Tramite delle misure su un campione diffusivo di riferimento è stato valutato il funzionamento dell’apparato e sono stati effettuati dei test per ottimizzare il procedimento di misurazione. L’apparato è stato poi impiegato per condurre un’analisi del trasporto in un altro sistema disordinato particolarmente interessante, una scaglia di scarafaggio bianco Chyphochilus. Questa specie presenta una bianchezza unica in natura, per via della particolare struttura ottica insita nelle sue scaglie. Le misure effettuate su questo campione hanno rivelato la presenza di anisotropia di trasporto, elemento che potrebbe rivestire un ruolo centrale nelle eccezionali proprietà macroscopiche della scaglia. Sia l’analisi sul campione diffusivo che sulla scaglia di Chyphochilus dimostrano come l’apparato messo a punto permetta di investigare le proprietà microscopiche e strutturali del processo di trasporto di luce, consentendo di stimare il grado di anisotropia dei sistemi esaminati. L’intero lavoro di tesi è stato svolto presso il laboratorio Europeo di Spettroscopia Non-lineare LENS di Firenze all’interno dell’attività di ricerca del gruppo di ottica dei sistemi complessi di Diederik Wiersma. Il campione di scaglia di Chyphochilus è stato fornito dal prof. Peter Vukusic dell’Università di Exeter, UK.
Resumo:
Scopo di questo studio è mostrare come, a partire dalle equazioni di Maxwell nella forma classica, sia possibile associare al campo elettromagnetico una funzione Hamiltoniana che risulti essere somma delle Hamiltoniane di un numero discreto di oscillatori armonici, ciascuno dei quali è associato ad un modo normale di vibrazione del campo. Tramite un procedimento puramente formale di quantizzazione, è possibile ricavare un'espressione per lo spettro del campo elettromagnetico e viene introdotto il concetto di fotone, inteso come quanto d'eccitazione di un singolo oscillatore. Si ricava la ben nota espressione U=ħω per l'energia del fotone e si deducono alcuni importanti aspetti, quali le fluttuazioni quantistiche del campo elettromagnetico e il problema legato alla divergenza dell'energia di vuoto fotonico, che aprono le porte all'elettrodinamica quantistica.
Resumo:
Il proposito principale di questo studio è valutare, attraverso un confronto tra tecnologia Nexfin e metodo invasivo, se l’attuazione di modelli fisiologici realizzata dal Monitor Nexfin, rende possibile un preciso e accurato monitoraggio dinamico della pressione arteriosa, garantendo in questo modo l’affidabilità della suddetta tecnologia in ambito clinico. È stato deciso di porre come termine di paragone il sistema invasivo in quanto rappresenta il gold standard per la rilevazione della pressione arteriosa. I capitoli sono stati disposti in modo da introdurre gradualmente il lettore all’interno del topic principale dell’elaborato, fornendo di volta in volta tutte le conoscenze essenziali per una comprensione ottimale degli argomenti trattati. Il primo capitolo fornisce inizialmente una breve visione d’insieme sull’apparato cardiocircolatorio, per poi concentrarsi sui fenomeni che concorrono alla definizione e alla caratterizzazione della pressione arteriosa. Il secondo capitolo presenta alcuni cenni storici sulle prime misurazioni di pressione effettuate, in seguito illustra i principali metodi di misurazione non invasivi, articolando il discorso anche attraverso l’analisi dei principali sfigmomanometri ad oggi disponibili. Il terzo capitolo guida il lettore attraverso la scoperta delle più recenti metodiche non invasive per la misurazione della pressione che consentono un monitoraggio dinamico, esponendo nel dettaglio i loro limiti e le loro peculiarità. Nella parte finale del capitolo si affronta anche l’evoluzione del “Volume Clamp Method” di Peñáz partendo dal progetto originale fino a giungere al notevole contributo di Wesseling e alla ricostruzione del segnale di pressione brachiale. Il quarto capitolo delinea brevemente le caratteristiche principali del metodo invasivo, ovvero il gold standard per quanto riguarda il monitoraggio della pressione sanguigna. Il quinto capitolo infine illustra in maniera completa le proprietà del Monitor Nexfin e analizza i risultati conseguiti, confrontando la tecnologia Nexfin con il sistema invasivo, durante lo studio condotto presso l’Ospedale Maurizio Bufalini dell’Azienda USL della Romagna – Sede operativa di Cesena. Lo studio è presentato seguendo una impostazione scientifica.
Resumo:
a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Negli ultimi anni si è assistito ad un miglioramento della qualità di vita dei piccoli animali che, oltre ad aumentarne l'aspettativa di vita, ha determinato un aumento della frequenza di patologie associate all'età medio-avanzata, quali le patologie renali croniche. Il presente studio si fonda sulla necessità, sempre più sentita nella pratica clinica veterinaria, di poter fornire al proprietario del paziente affetto da CKD, una serie di parametri che, oltre a fungere da target terapeutico, possano aiutare a comprenderne la prognosi. Lo studio ha valutato una popolazione di cani affetti da CKD e ne ha seguito o ricostruito il follow-up, per tutto il periodo di sopravvivenza fino al momento dell’exitus. Di tali soggetti sono stati raccolti dati relativi ad anamnesi, esame clinico, misurazione della pressione arteriosa, diagnostica per immagini, esami ematochimici, analisi delle urine ed eventuale esame istologico renale. È stato possibile individuare alcuni importanti fattori prognostici per la sopravvivenza in pazienti con CKD. Oltre a fattori ben noti in letteratura, come ad esempio elevati valori di creatinina e fosforo, o la presenza di proteinuria, è stato possibile anche evidenziare il ruolo prognostico negativo di alcuni parametri meno noti, ed in particolare delle proteine di fase acuta positive e negative, e del rapporto albumina/globuline. Una possibile spiegazione del valore prognostico di tali parametri risiede nel ruolo prognostico negativo dell’infiammazione nel paziente con CKD: tale ruolo è stato suggerito e dimostrato nell’uomo e avrebbe alla base numerosi possibili meccanismi (sviluppo di anemia, complicazioni gastroenteriche, neoplasie, etc.), ma dati analoghi sono mancanti in medicina veterinaria. Una seconda possibile spiegazione risiede nel fatto che potenzialmente i livelli delle proteine di fase acuta possono essere influenzati dalla presenza di proteinuria nel paziente con CKD e di conseguenza potrebbero essere una conferma di come la proteinuria influenzi negativamente l'outcome.
Resumo:
Lo scopo del lavoro di tesi, svolto presso gli stabilimenti della Ditan Color Srl di Palazzolo Acreide (SR), è stato quello di realizzare un rivestimento colorato a base acquosa per il settore edile avente uno spessore medio del film essiccato di circa 150 micron, rivestimento definito a “basso spessore”, da applicare con sistemi tradizionali (rullo, spray, pennello) su intonaci “civili”, a base di calce e/o cemento, rasature cementizie e su pitture minerali esistenti. La caratteristica peculiare di questa pittura è la presenza di un sistema sinergico di “leganti” costituito da resine acriliche, silossaniche e da silice colloidale a dimensioni nanometriche. La presenza di PV con leganti acrilici, acril/silossanici, minerali a base di calce aerea o silicato di potassio è una realtà da tempo consolidata. Il mercato offre moltissime soluzioni legate alle caratteristiche delle superfici da trattare, alle esigenze dei clienti o semplicemente alle aree geografiche. Con questo progetto si è valutata la possibilità di includere tra i leganti un nuovo componente, il gel di silice a dimensioni nanometriche (diametro delle particelle < 100 nm) e di monitorare le proprietà del prodotto finito. Le caratteristiche fondamentali per classificare il PV sono: l’adesione della pittura ai supporti, intesa come misurazione dell’aderenza per trazione diretta; la traspirabilità del film essiccato – con conseguente ruolo attivo del PV nello scambio tra ambiente interno ed esterno - intesa come determinazione del grado di trasmissione del vapore acqueo secondo la norma UNI EN ISO 7783; la resistenza all’acqua meteorica - con conseguente protezione dello stato e della salubrità delle murature - intesa come determinazione del grado di trasmissione dell’acqua liquida secondo la UNI EN 1062-3. Lo studio è iniziato con la messa a punto del tipo di sistema disperdente/bagnante e del suo dosaggio, quindi del dosaggio di pigmento TiO2. Successivamente è stato valutato il comportamento di una serie di sistemi leganti contenenti vari tipi di polimeri e l’effetto della presenza di silice colloidale. Infine, sulle formulazioni ottimizzate, sono state condotte prove di adesione al supporto, traspirabilità e resistenza all’acqua meteorica.