132 resultados para Ressonancia magnetica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cervello umano è composto da una rete complessa, formata da fasci di assoni, che connettono le diverse aree cerebrali. Il fascio arcuato collega l’area imputata alla com- prensione del linguaggio con quella dedicata alla sua produzione. Il fascio arcuato è presente in entrambi gli emisferi cerebrali, anche se spesso è utilizzato prevalente- mente il sinistro. In questa tesi sono state valutate, in un campione di soggetti sani, le differenze tra fascio arcuato destro e sinistro, utilizzando la trattografia, metodica avanzata e non invasiva che permette la ricostruzione della traiettoria delle fibre con immagini RM (Risonanza Magnetica) pesate in diffusione. A questo scopo ho utilizzato un algoritmo probabilistico, che permette la stima di probabilità di connessione della fibra in oggetto con le diverse aree cerebrali, anche nelle sedi di incrocio con fibre di fasci diversi. Grazie all’implementazione di questo metodo, è stato possibile ottenere una ricostruzione accurata del fascio arcuato, an- che nell’emisfero destro dove è spesso critica, tanto da non essere possibile con altri algoritmi trattografici. Parametrizzando poi la geometria del tratto ho diviso il fascio arcuato in venti seg- menti e ho confrontato i parametri delle misure di diffusione, valutate nell’emisfero destro e sinistro. Da queste analisi emerge un’ampia variabilità nella geometria dell’arcuato, sia tra diversi soggetti che diversi emisferi. Nell’emisfero destro l’arcuato incrocia maggiormente fibre appartenenti ad altri fasci. Nell’emisfero sinistro le fibre dell’arcuato sono più compatte e si misura anche una maggiore connettività con altre aree del cervello coinvolte nelle funzioni linguistiche. Nella seconda fase dello studio ho applicato la stessa metodica in due pazienti con lesioni cerebrali, con l’obiettivo di testare il danno del fascio arcuato ipsilaterale alla lesione e stimare se nell’emisfero controlaterale si innescassero meccanismi di plastic- ità strutturale. Questa metodica può essere implementata, in un gruppo di pazienti omogenei, per identificare marcatori RM diagnostici nella fase di pianificazione pre- chirurgica e marcatori RM prognostici di recupero funzionale del linguaggio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Vol. 1] contains nos.1-5, [v. 2] nos. 6-10, [v. 3] nos.11-13, [v. 4] nos. 14-15.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnica di Diffusion Weighted Imaging (DWI) si basa sullo studio del moto diffusivo delle molecole d’acqua nei tessuti biologici ed è in grado di fornire informazioni sulla struttura dei tessuti e sulla presenza di eventuali alterazioni patologiche. Il più recente sviluppo della DWI è rappresentato dal Diffusion Tensor Imaging (DTI), tecnica che permette di determinare non solo l’entità, ma anche le direzioni principali della diffusione. Negli ultimi anni, grazie ai progressi nella tecnica di risonanza magnetica, l’imaging di diffusione è stato anche applicato ad altri distretti anatomici tra cui quello renale, per sfruttarne le potenzialità diagnostiche. Tuttavia, pochi sono ancora gli studi relativi all’applicazione delle metodiche di diffusione per la valutazione della malattia policistica renale autosomica dominante (ADPKD). ADPKD è una delle malattie ereditarie più comuni ed è la principale causa genetica di insufficienza renale dell’adulto. La caratteristica principale consiste nella formazione di cisti in entrambi i reni, che progressivamente aumentano in numero e dimensioni fino a causare la perdita della funzionalità renale nella metà circa dei pazienti. Ad oggi non sono disponibili terapie capaci di arrestare o rallentare l’evoluzione di ADPKD; è possibile controllare le complicanze per evitare che costituiscano componenti peggiorative. Il lavoro di tesi nasce dalla volontà di indagare se la tecnica dell’imaging di diffusione possa essere utile per fornire informazioni sullo stato della malattia e sul suo grado di avanzamento. L’analisi di studio è concentrata sul calcolo del coefficiente di diffusione apparente (ADC), derivato dalle immagini DWI e valutato nella regione della midollare. L’obiettivo di questo lavoro è verificare se tale valore di ADC sia in grado di caratterizzare la malattia policistica renale e possa essere utilizzato in ambito clinico-diagnostico come indicatore prognostico nella progressione di questa patologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La PET/RMN è un ibrido delle tecnologie di imaging che incorpora la risonanza magnetica nucleare (RMN), che fornisce un'imaging di tipo morfologico, e la tomografia ad emissione di positroni (PET), che fornisce un'imaging di tipo funzionale. Questa nuova tecnologia trova applicazioni in campo oncologico, cardiovascolare e nello studio del sistema nervoso centrale (SNC). La realizzazione di questa nuova tecnologia ha comportato diverse sfide tecniche per la combinazione delle due apparecchiature, che sono state risolte con diversi approcci. Lo sviluppo futuro della PET/RMN sarà guidato da molteplici fattori tra i quali l'eliminazione degli eventuali disturbi e la necessità di accordi per i rimborsi dell'esame. Tutt'ora esistono tre diversi produttori al mondo : Simens, Philips e GE (General Electric), i quali hanno diverse tecnologie e diversi metodi di analisi. La prima apparecchiatura PET/RMN in Italia è stata acquistata dall'ospedale di Padova nel gennaio 2015, mentre negli altri paesi aveva già fatto la sua comparsa dal 2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della Diagnostica per Immagini, l'imaging ibrido sta assumendo un ruolo fondamentale in molte applicazioni cliniche, tra cui oncologia, neurologia e cardiologia. La possibilità di integrare informazioni complementari, funzionali e morfologiche, in un'unica immagine, permette di valutare con estrema accuratezza varie tipologie di malattie, diminuendo i tempi di acquisizione e i disagi per i pazienti. La risonanza magnetica, in sostituzione alla TAC nel sistema integrato PET/TC, introduce notevoli vantaggi quali l'acquisizione simultanea dei dati, l'ottimo contrasto dei tessuti molli, l'assenza di radiazioni ionizzanti e la correzione degli artefatti da movimento; ciò migliora l'accuratezza delle immagini e, di conseguenza, il processo diagnostico. Nonostante sia un interessante strumento di diagnostica e l'apice dello sviluppo tecnologico in imaging nucleare, vi sono alcune problematiche che ne impediscono la diffusa adozione, tra cui le interferenze reciproche tra le due modalità, i costi elevati e ancora una ridotta pubblicazione di articoli al riguardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si affronta l'argomento della refrigerazione magnetica. La tematica è affrontata a partire dal principio fisico che c'è alla base fino ad arrivare ai prototipi relaizzati nel corso degli anni. Si conclude con lo stato attuale della refrigerazione magnetica, facendo un' ipotesi progettuale di un potenziale refrigeratore magnetico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto della proposta è un sistema di trasporto guidato di media potenzialità destinato alle aree metropolitane, basato sulla tecnologia della levitazione magnetica. Utilizza magneti permanenti ad alta energia per la sostentazione; un motore lineare sincrono per la propulsione; un dispositivo meccanico, o elettromagnetico, per stabilizzare la guida assicurata dagli stessi magneti della sostentazione. Il contenuto innovativo dell'oggetto non si limita alla parte non convenzionale (levitazione), ma investe tutto il sistema, poiché l'offerta industriale di un sistema destinato alle aree metropolitane è vincente solo se riferita ad un sistema completo (infrastruttura, veicoli, alimentazione, sistema di sicurezza, modello di esercizio, gestione, manutenzione, …). Si descrive inoltre la particolare soluzione inedita con abitacolo sospeso al di sotto dell'involucro tecnologico (comprendente magneti di sostentamento, motore lineare, sistema di guida, sospensione secondaria).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il vantaggio di una regolarizzazione multiparametro sta nel fatto che scegliendo un parametro diverso per ogni punto della soluzione si ricostruiscono con più accuratezza i picchi e le regioni piatte. In una prima fase di sperimentazione si è applicato l'algoritmo UPEN ad alcuni problemi test del Regularization Tools e si è osservato che l'algoritmo produce ottimi risultati inquesto ambito. In una seconda fase di sperimentazione si sono confrontati i dati ottenuti da UPEN con quelli derivanti da altri criteri di scelta noti in letteratura. Si è anche condotta un'analisi su dati simulati di risonanza magnetica nucleare e su problemi di deblurring di un'immagine.