980 resultados para tDCS sperimentale clinico elettrostimolazione
Resumo:
Negli ultimi tempi sta assumendo grande importanza la ricerca sulla produzione di idrogeno dall’acqua tramite celle foto-elettrolitiche. In questa tesi vengono descritte le analisi condotte su un materiale che può essere coinvolto in questa applicazione: il TiO2 drogato con atomi di V. In particolare è stato valutato l’effetto del drogaggio sull’energy gap tramite misure di trasmittanza ottica effettuate in laboratorio su campioni con diverse concentrazioni di V e trattati termicamente a varie temperature. Nel primo capitolo vengono descritte le caratteristiche dei semiconduttori legate all’ottica, soffermandosi in particolare sul TiO2. Nel secondo capitolo sono illustrati l’apparato e il metodo sperimentale; viene inoltre fornita una descrizione dettagliata dei campioni analizzati. Nel terzo capitolo vengono esposti i risultati delle analisi dei dati.
Resumo:
In questo elaborato vengono studiate le proprietà optoelettroniche di film sottili di germanio nanoporosi ottenuti per impiantazione ionica. Viene trattata la tecnica sperimentale della Surface Photovoltage Spectroscopy nella configurazione Metal-Insulator-Semiconductor. Viene osservato che la presenza di struttura nanoporosa provoca due effetti: il primo è l’innalzamento del bandgap energetico dovuta al confinamento quantistico degli elettroni all’interno dei pori; il secondo è l’incremento del segnale SPV per quei film in cui è maggiore il rapporto tra superficie e volume.
Resumo:
La teoria dell'inflazione risolve alcuni problemi fondamentali posti dalla teoria standard dell'origine dell'universo, in particolare chiarisce perché l'universo è piatto e omogeneo quando secondo la cosmologia standard non lo dovrebbe essere (o meglio: lo potrebbe essere solo con probabilità molto bassa). Inoltre la teoria dell'inflazione spiega l'origine delle anisotropie della radiazione cosmica di fondo e in tal modo l'inflazione è responsabile anche dell'origine della struttura a grande scala dell'universo. La teoria inflazionaria presenta la possibilità di una conferma sperimentale. Alcune sue predizioni sono già state verificate e una forte prova era sembrata venire dall'esperimento BICEP2, ma per ora (novembre 2014) non c'è stata una conferma. Nello specifico, l'esperimento BICEP2 aveva dichiarato a marzo 2014 di aver rilevato nella radiazione cosmica di fondo il segnale di onde gravitazionali che potevano essere state provocate soltanto dall'inflazione. La presente tesi descrive gli aspetti classici (non quantistici) della teoria dell'inflazione, riporta i risultati relativi alla trattazione quantistica delle perturbazioni della radiazione cosmica di fondo e illustra la questione delle verifiche sperimentali della teoria dell'inflazione, dedicando particolare rilievo al recente esperimento BICEP2.
Resumo:
Il presente lavoro di tesi è finalizzato allo sviluppo di un dispositivo indossabile, e minimamente invasivo, in grado di registrare in maniera continua segnali legati all’attività elettromeccanica del muscolo cardiaco, al fine di rilevare eventuali anomalie cardiache. In tal senso il sistema non si limita alla sola acquisizione di un segnale ECG, ma è in grado di rilevare anche i toni cardiaci, ovvero le vibrazioni generate dalla chiusura delle valvole cardiache, la cui ampiezza è espressione della forza contrattile (funzione meccanica) del cuore. Il presente lavoro di tesi ha riguardato sia la progettazione che la realizzazione di un prototipo di tale dispositivo ed è stato svolto presso il laboratorio di Bioingegneria del Dipartimento di Medicina Specialistica Diagnostica e Sperimentale dell’Università di Bologna, sito presso l’Azienda Ospedaliero-Universitaria Policlinico Sant’Orsola-Malpighi. Il sistema finale consiste in un dispositivo applicabile al torace che, attraverso una serie di sensori, è in grado di rilevare dati legati alla meccanica del cuore (toni cardiaci), dati elettrici cardiaci (ECG) e dati accelerometrici di attività fisica. Nello specifico, il sensing dei toni cardiaci avviene attraverso un accelerometro in grado di misurare le vibrazioni trasmesse al torace. I tracciati, raccolti con l’ausilio di una piattaforma Arduino, vengono inviati, tramite tecnologia Bluetooth, ad un PC che, attraverso un applicativo software sviluppato in LabVIEW™, ne effettua l’analisi, il salvataggio e l’elaborazione in real-time, permettendo un monitoraggio wireless ed in tempo reale dello stato del paziente.
Resumo:
Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.
Resumo:
Recentemente, l'uso di polimeri a base di acido polilattico (PLA) ha subito un fortissimo incremento, soprattutto per la produzione di dispositivi atti alla fissazione di fratture e osteotomie. Lo scopo della prima parte del mio lavoro di tesi, è stato quello di redigere un documento che contenesse informazioni sulle caratteristiche dell'acido poli-L-lattico (PLLA) e del polimero P(L-DL)LA70:30 (70% di PLLA + 30% di PDLLA), entrambi molto diffusi nelle applicazioni biomediche. A tale scopo, è stata fatta un'analisi dello stato dell'arte sulle proprietà chimico-fisiche, tecnologiche (produzione e sterilizzazione) e sui principali meccanismi di degradazione. La seconda parte, invece, è stata dedicata alla stesura di una review sull'evoluzione della biocompatibilità del PLLA utilizzato in ambito ortopedico. A tale scopo, data la grande quantità di studi presenti in letteratura (in vitro, in vivo, trial clinici), non è stato necessario eseguire nessun test per validarne la biocompatibilità. Tuttavia, nonostante trovino già largo impiego nella chirurgia ortopedica, i polimeri in PLA continuano ad essere oggetto di studio, con l'obiettivo di comprenderne al meglio il comportamento e realizzare dispositivi sempre più sicuri ed efficaci per la salute del paziente. E' proprio in questo ambito di ricerca che si inserisce l'attività sperimentale svolta presso lo stabilimento Lima Corporate di Villanova di San Daniele del Friuli (UD). In particolare, l'ultima parte del lavoro di tesi, è stata dedicata alla valutazione degli effetti che il processo di sterilizzazione ad Ossido di Etilene (EtO), genera sulle proprietà chimico-fisiche e meccaniche della vite CALCANEO-STOP in PLLA, stampata ad iniezione e realizzata da Hit Medica (del gruppo Lima Corporate) nello stabilimento di San Marino (RSM). Per la caratterizzazione chimico-fisica del materiale sono state condotte prove di: densitometria, calorimetria a scansione differenziale (DSC), spettrometria FT-IR e viscosimetria. Per la caratterizzazione meccanica dei dispositivi, sono state condotte delle prove a torsione statica.
Resumo:
I materiali compositi sono largamente utilizzati nel moderno campo ingegneristico e garantiscono una notevole riduzione di peso rispetto ai materiali classici, a parità di caratteristiche meccaniche. Le conoscenze su di essi tuttavia presentano ancora delle lacune: in particolare un aspetto critico di tali materiali è rappresentato dal loro comportamento successivo ad un impatto. Obiettivo della presente tesi è indagare tale problematica mediante la realizzazione di una campagna sperimentale innovativa. Verrà presentata una introduzione generale sui materiali compositi e sulla problematica dei danni da impatto e verrà descritta l'attrezzatura utilizzata per la realizzazione degli impatti, analizzando le problematiche riscontrate e le soluzioni trovate. Dopo un accenno ai Controlli Non Distruttivi effettuabili sui materiali compositi, verrà mostrata l'attrezzatura per la realizzazione di prove a compressione, analizzando le problematiche riscontrate e le soluzioni trovate. Saranno elencati i dati acquisiti durante le prove di impatto e di compressione e, infine, saranno illustrate le conclusioni del lavoro e i possibili sviluppi futuri.
Il progetto delle pavimentazioni stradali in materiale lapideo: il caso del centro storico di Modena
Resumo:
Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.
Resumo:
La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.
Resumo:
La malattia di Parkinson è un disturbo neurodegenerativo con eziologia sconosciuta che colpisce in particolare le aree del cervello che sono coinvolte nel controllo del movimento. Tale disturbo neurologico causa anomalie sull’andatura del soggetto portandolo ad esempio a strisciare i piedi e flettere il busto più del necessario; anomalie che causano una camminata insicura che può sfociare in inciampi e cadute. Lo scopo di questo studio è disegnare e sviluppare algoritmi in grado di stimare la clearance dei piedi e l’inclinazione del tronco, al fine di essere inseriti nel progetto CuPiD, il quale fornisce un feedback vocale ogni volta in cui il soggetto parkinsoniano presenti valori dei parametri monitorati al di fuori di un range fisiologico. Sono stati reclutati 20 soggetti, 10 a cui è stata diagnosticata la malattia di Parkinson idiopatica e 10 asintomatici. Nella valutazione sperimentale si è acquisita la camminata dei soggetti coinvolti nell’esperimento, utilizzando un sistema inerziale ed un sistema stereofotogrammetrico come gold standard. Ogni soggetto ha eseguito 4 camminate, ciascuna della durata di 2 minuti, nelle seguenti diverse condizioni: camminata normale, focus sui piedi, focus sul tronco, audio stroop. Inoltre si è valutata l’entità delle differenze cliniche dei due parametri stimati, tra il gruppo dei soggetti malati di Parkinson ed il gruppo dei soggetti sani. Dallo studio effettuato si propone un algoritmo per la stima della clearance che presenta un errore relativamente alto
Resumo:
Le infezioni ospedaliere (o nosocomiali) sono le complicanze più frequenti e gravi nell’ambito dell’assistenza sanitaria, e costituiscono una delle maggiori cause di morbilità e mortalità. Tale denominazione comprende un insieme piuttosto eterogeneo di condizioni diverse sotto il profilo sia microbiologico che epidemiologico, ma accomunate dall’elevato impatto sulla salute dei pazienti e sui costi sanitari. Molti fattori contribuiscono a condizionare la frequenza delle infezioni nosocomiali, tra cui la compromissione delle difese immunitarie dei pazienti, l’invasività delle nuove tecnologie e pratiche sanitarie in campo diagnostico/terapeutico, l’esecuzione di procedure assistenziali nel non rispetto delle norme igieniche da parte degli operatori sanitari, l’utilizzo estensivo degli antibiotici con conseguente insorgenza di ceppi batterici resistenti; per ultimo, non a caso, l’inquinamento dell’ambiente ospedaliero. Ad oggi, infatti, la contaminazione microbica dell’ambiente (aria e superfici) è ritenuto un fattore di rischio secondario, rispetto alla correttezza dei comportamenti degli operatori (rispetto delle procedure di asepsi, delle precauzioni di isolamento, adeguate tecniche operatorie, ecc), per la quale si sono concentrati gran parte degli sforzi in materia di prevenzione. Ciò probabilmente è anche dovuto al fatto che finora nessuna tecnologia è stata in grado di intervenire in maniera adeguata sulla decontaminazione microbica di aria e superfici. I dati allarmanti sulle infezioni ospedaliere a livello mondiale sono la prova che le misure adottate finora per contrastare il problema non sono sufficienti; inoltre il monito lanciato dall’Organizzazione Mondiale della Sanità riguardo alla progressiva perdita d’efficacia delle terapie antibiotiche impone di trovare al più presto nuove armi per la lotta alle infezioni. Una via sperimentale e innovativa, volta alla riduzione della frequenza d’infezioni ospedaliere, potrebbe essere proprio il disinquinamento dell’aria indoor negli ambienti ospedalieri e delle superfici a contatto diretto con il paziente, ottenibile per mezzo di una tecnologia ad hoc: la “Tecnologia Nano-Safe Koala®” (brevettata da D.A.TECH., azienda specializzata nel disinquinamento dell’aria indoor). Per l’applicazione di tale tecnologia in ambito ospedaliero è stata progettata una "cappa disinquinante", pensata per essere installata al di sopra del posto letto, al fine di fornire al paziente aria incontaminata e di sanificare le superfici a contatto con esso. Una volta realizzato il prototipo, sono state condotte delle sperimentazioni per testarne l’efficacia e l’efficienza, per mezzo di strumenti specifici per quanto riguarda l’analisi dell’aria, e con test biologici per quanto riguarda l’analisi delle superfici.
Resumo:
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.
Resumo:
Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.