143 resultados para risonanza, magnetica, cardiaca, miocarditi
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
Il cervello umano è composto da una rete complessa, formata da fasci di assoni, che connettono le diverse aree cerebrali. Il fascio arcuato collega l’area imputata alla com- prensione del linguaggio con quella dedicata alla sua produzione. Il fascio arcuato è presente in entrambi gli emisferi cerebrali, anche se spesso è utilizzato prevalente- mente il sinistro. In questa tesi sono state valutate, in un campione di soggetti sani, le differenze tra fascio arcuato destro e sinistro, utilizzando la trattografia, metodica avanzata e non invasiva che permette la ricostruzione della traiettoria delle fibre con immagini RM (Risonanza Magnetica) pesate in diffusione. A questo scopo ho utilizzato un algoritmo probabilistico, che permette la stima di probabilità di connessione della fibra in oggetto con le diverse aree cerebrali, anche nelle sedi di incrocio con fibre di fasci diversi. Grazie all’implementazione di questo metodo, è stato possibile ottenere una ricostruzione accurata del fascio arcuato, an- che nell’emisfero destro dove è spesso critica, tanto da non essere possibile con altri algoritmi trattografici. Parametrizzando poi la geometria del tratto ho diviso il fascio arcuato in venti seg- menti e ho confrontato i parametri delle misure di diffusione, valutate nell’emisfero destro e sinistro. Da queste analisi emerge un’ampia variabilità nella geometria dell’arcuato, sia tra diversi soggetti che diversi emisferi. Nell’emisfero destro l’arcuato incrocia maggiormente fibre appartenenti ad altri fasci. Nell’emisfero sinistro le fibre dell’arcuato sono più compatte e si misura anche una maggiore connettività con altre aree del cervello coinvolte nelle funzioni linguistiche. Nella seconda fase dello studio ho applicato la stessa metodica in due pazienti con lesioni cerebrali, con l’obiettivo di testare il danno del fascio arcuato ipsilaterale alla lesione e stimare se nell’emisfero controlaterale si innescassero meccanismi di plastic- ità strutturale. Questa metodica può essere implementata, in un gruppo di pazienti omogenei, per identificare marcatori RM diagnostici nella fase di pianificazione pre- chirurgica e marcatori RM prognostici di recupero funzionale del linguaggio.
Resumo:
La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.
Resumo:
La tecnica di Diffusion Weighted Imaging (DWI) si basa sullo studio del moto diffusivo delle molecole d’acqua nei tessuti biologici ed è in grado di fornire informazioni sulla struttura dei tessuti e sulla presenza di eventuali alterazioni patologiche. Il più recente sviluppo della DWI è rappresentato dal Diffusion Tensor Imaging (DTI), tecnica che permette di determinare non solo l’entità, ma anche le direzioni principali della diffusione. Negli ultimi anni, grazie ai progressi nella tecnica di risonanza magnetica, l’imaging di diffusione è stato anche applicato ad altri distretti anatomici tra cui quello renale, per sfruttarne le potenzialità diagnostiche. Tuttavia, pochi sono ancora gli studi relativi all’applicazione delle metodiche di diffusione per la valutazione della malattia policistica renale autosomica dominante (ADPKD). ADPKD è una delle malattie ereditarie più comuni ed è la principale causa genetica di insufficienza renale dell’adulto. La caratteristica principale consiste nella formazione di cisti in entrambi i reni, che progressivamente aumentano in numero e dimensioni fino a causare la perdita della funzionalità renale nella metà circa dei pazienti. Ad oggi non sono disponibili terapie capaci di arrestare o rallentare l’evoluzione di ADPKD; è possibile controllare le complicanze per evitare che costituiscano componenti peggiorative. Il lavoro di tesi nasce dalla volontà di indagare se la tecnica dell’imaging di diffusione possa essere utile per fornire informazioni sullo stato della malattia e sul suo grado di avanzamento. L’analisi di studio è concentrata sul calcolo del coefficiente di diffusione apparente (ADC), derivato dalle immagini DWI e valutato nella regione della midollare. L’obiettivo di questo lavoro è verificare se tale valore di ADC sia in grado di caratterizzare la malattia policistica renale e possa essere utilizzato in ambito clinico-diagnostico come indicatore prognostico nella progressione di questa patologia.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
La PET/RMN è un ibrido delle tecnologie di imaging che incorpora la risonanza magnetica nucleare (RMN), che fornisce un'imaging di tipo morfologico, e la tomografia ad emissione di positroni (PET), che fornisce un'imaging di tipo funzionale. Questa nuova tecnologia trova applicazioni in campo oncologico, cardiovascolare e nello studio del sistema nervoso centrale (SNC). La realizzazione di questa nuova tecnologia ha comportato diverse sfide tecniche per la combinazione delle due apparecchiature, che sono state risolte con diversi approcci. Lo sviluppo futuro della PET/RMN sarà guidato da molteplici fattori tra i quali l'eliminazione degli eventuali disturbi e la necessità di accordi per i rimborsi dell'esame. Tutt'ora esistono tre diversi produttori al mondo : Simens, Philips e GE (General Electric), i quali hanno diverse tecnologie e diversi metodi di analisi. La prima apparecchiatura PET/RMN in Italia è stata acquistata dall'ospedale di Padova nel gennaio 2015, mentre negli altri paesi aveva già fatto la sua comparsa dal 2011.
Resumo:
Nell'ambito della Diagnostica per Immagini, l'imaging ibrido sta assumendo un ruolo fondamentale in molte applicazioni cliniche, tra cui oncologia, neurologia e cardiologia. La possibilità di integrare informazioni complementari, funzionali e morfologiche, in un'unica immagine, permette di valutare con estrema accuratezza varie tipologie di malattie, diminuendo i tempi di acquisizione e i disagi per i pazienti. La risonanza magnetica, in sostituzione alla TAC nel sistema integrato PET/TC, introduce notevoli vantaggi quali l'acquisizione simultanea dei dati, l'ottimo contrasto dei tessuti molli, l'assenza di radiazioni ionizzanti e la correzione degli artefatti da movimento; ciò migliora l'accuratezza delle immagini e, di conseguenza, il processo diagnostico. Nonostante sia un interessante strumento di diagnostica e l'apice dello sviluppo tecnologico in imaging nucleare, vi sono alcune problematiche che ne impediscono la diffusa adozione, tra cui le interferenze reciproche tra le due modalità, i costi elevati e ancora una ridotta pubblicazione di articoli al riguardo.
Resumo:
Il vantaggio di una regolarizzazione multiparametro sta nel fatto che scegliendo un parametro diverso per ogni punto della soluzione si ricostruiscono con più accuratezza i picchi e le regioni piatte. In una prima fase di sperimentazione si è applicato l'algoritmo UPEN ad alcuni problemi test del Regularization Tools e si è osservato che l'algoritmo produce ottimi risultati inquesto ambito. In una seconda fase di sperimentazione si sono confrontati i dati ottenuti da UPEN con quelli derivanti da altri criteri di scelta noti in letteratura. Si è anche condotta un'analisi su dati simulati di risonanza magnetica nucleare e su problemi di deblurring di un'immagine.
Resumo:
In questo lavoro di tesi sono stati analizzati campioni di orate (Sparus aurata) da acquacoltura allevate con differenti diete, commerciali o innovative, con lo scopo di verificare se le diverse formulazioni dei mangimi hanno un effetto sul profilo molecolare dei pesci. A tal proposito, è stata utilizzata la spettroscopia di Risonanza Magnetica Nucleare (1H NMR) accoppiata ad un approccio metabolomico poiché, rispetto ad altre tecniche, consente la determinazione simultanea di un’ampia classe di metaboliti che caratterizzano il campione attraverso la generazione di spettri che contengono un ampio spettro di informazioni. Questo lavoro di tesi si sposa bene con l’attuale tendenza di sviluppo dell’acquacoltura, che viene vista come uno strumento interessante per fornire cibo e migliorare la sicurezza alimentare, ma allo stesso tempo esso è in accordo anche con la sempre più elevata attenzione verso sostenibilità, qualità e conformità alle richieste dei consumatori, che sono oggi le principali tendenze nel settore alimentare. Negli ultimi anni si è assistito ad un ampio sviluppo dell’acquacoltura e questo ha portato alla necessità di ricercare strategie per migliorare l’efficienza, la produttività, ma anche la sostenibilità di questi sistemi. Questo ha condotto ad un elevato aumento delle ricerche riguardanti questi aspetti dell’acquacoltura, e l’impatto che la dieta ha sul metabolismo dei pesci è uno di questi. I dati spettroscopici sono stati interpretati attraverso analisi statistica multivariata, nello specifico attraverso l’analisi delle componenti principali, PCA, per individuare eventuali differenze significative tra i tre gruppi a seguito della diversa tipologia di alimentazione. Dal presente lavoro di tesi è stato possibile concludere che i campioni vengono distribuiti e classificati in funzione della dieta. Inoltre, è stato possibile individuare i metaboliti che maggiormente determinano questa separazione.
Resumo:
L’obbiettivo dell’elaborato che segue è quello di fornire a medici e chirurghi uno strumento di valutazione dei trattamenti di cura, per pazienti affetti da malattie del sistema muscolo scheletrico e della deambulazione. Lo studio incomincia dall’analisi del movimento del paziente tramite strumenti di gate analysis. Impiegando come modello la ricostruzione dell’apparato muscolo scheletrico del paziente, tramite sistemi di modellazione 3Dda TAC (Tomografia Assiale Computerizzata) o risonanza magnetica, realizzando un modello personalizzato che verrà analizzato tramite il software OpenSim. Tramite lo studio del movimento andremo successivamente ad identificare le forze articolari agenti sul ginocchio e grazie alla modellazione FEM (Finite Element Method) verrà realizzato uno strumento di valutazione della strategia operatoria ottimale per il paziente, simulando l’operazione del ginocchio, che agisce sulle forze muscolari variando le forze agenti sull’articolazione e come queste variazioni modificano l’andamento delle tensioni nell’articolazione.
Resumo:
La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.
Resumo:
La ricerca in campo agroalimentare ha da sempre messo in evidenza l'importanza della conservazione degli alimenti nel tempo. Alcune nuove tecnologie basate sulle alte pressioni, e dunque non termiche, di stabilizzazione ai fini della conservazione, come l’High Hydrostatic Pressure (HHP) o High Pressure Processing (HPP), possono risultare fondamentali nel preservare aspetti microbiologici, qualitativi e nutrizionali dell'alimento. In questo elaborato verranno osservati alcuni aspetti del metaboloma, l’insieme delle molecole di piccola dimensione con funzioni metaboliche, di campioni di Mugil cephalus trattati con HHP. Tali aspetti permetteranno di ottenere informazioni sul profilo amminoacidico e sulla freschezza del pesce. Lo studio del profilo amminoacidico permette di tracciare la tendenza del sapore dello specifico campione analizzato dal momento che ogni amminoacido contribuisce a definire uno specifico gusto fondamentale. La freschezza del pesce sarà descritta attraverso il K index che, tramite lo studio della degradazione dei nucleotidi nel periodo post-mortem, rappresenta uno strumento utile al fine dello studio dei cambiamenti della freschezza nel tempo e secondo la tecnologia applicata. L’analisi del metaboloma del cefalo è stata eseguita mediante la spettroscopia di risonanza magnetica nucleare al protone (1H-NMR) di cui si descrivono i principi fisici nel primo capitolo. Nel secondo capitolo sono descritti i software utilizzati per indentificare le molecole che compongono il metaboloma dei campioni analizzati. Infine, nel terzo capitolo, si valuta l’effetto del trattamento HHP (a 400, 500 e 600MPa) sul profilo amminoacidico e sul K index durante il periodo di conservazione.
Resumo:
La metabolomica è una delle discipline più innovative tra quelle integrate al settore agroalimentare e, nonostante ciò, è già ampiamente sfruttata ed apprezzata. La risonanza magnetica nucleare (che verrà ampiamente trattata in seguito) è la tecnica d’elezione che permette di svolgere analisi in questo ambito. Nonostante l’utilità indiscussa di questa analisi, molti alimenti non sono stati protagonisti di studi in questo settore. Il latte d'asina è solo uno dei prodotti che per via della loro poca diffusione e centralità nel mercato non sono conosciuti e sfruttati appieno. Lo scopo di questo lavoro è quello di indagare il metaboloma del latte d'asina, come primo tassello per studi più avanzati.
Resumo:
La terapia di resincronizzazione cardiaca (CRT) si è imposta negli ultimi dieci anni come l'alternativa migliore all'approccio farmacologico primario nella cura allo scompenso cardiaco: la stimolazione biventricolare utilizzando un elettrocatetere in ventricolo sinistro si è infatti rivelata uno dei metodi più efficaci per migliorare la dissincronia ventricolare negli stadi più avanzati anche nei pazienti che necessitano di una stimolazione continua e permanente come coloro che sono stati sottoposti ad ablazione del nodo AV. Esistono diversi punti irrisolti su cui la ricerca sta ancora lavorando per poter ottimizzare questa terapia, in particolar modo la percentuale (circa il 25-30%) dei pazienti in cui non si registrano miglioramenti dovuti alla terapia. Questa tesi, proposta dall'azienda St.Jude Medical Inc., segue la costruzione di un registro osservazionale per poter valutare l'efficacia della tecnologia quadripolare di ultima generazione. Dai dati emersi, la possibilità di programmare dieci diversi vettori di stimolazione contro i tre offerti dagli attuali dispositivi bipolari permette una maggiore libertà nel posizionamento dell'elettrocatetere ventricolare sinistro e una più semplice gestione delle complicanze come la stimolazione del nervo frenico (PNS), oltre a strutturare una terapia più specifica a seconda della risposta del paziente; inoltre la tecnologia quadripolare ha evidenziato migliori prestazioni in sede di impianto – tempi minori, più percentuali di successo e maggiori possibilità di posizionamento del catetere in zona ottimale con buoni valori di soglia – e meno interventi in seguito a complicanze. Il miglioramento della percentuale dei responder non è stato particolarmente significativo e necessita di ulteriori studi, ma è comunque incoraggiante e mostra che un numero più alto di configurazioni di stimolazione può essere una soluzione ottimale per la ricerca di una cura personalizzata, specialmente verso quei pazienti che durante l'impianto verrebbero esclusi per mancanza di stimolazioni corrette e possono, in questo modo, rientrare nella terapia fin dall'inizio.