30 resultados para Ventilação não invasiva
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
L’analisi presentata è stata ottenuta a partire dai dati acquisiti durante uno studio clinico presso il reparto di emodialisi dell'ospedale Ceccarini di Riccione. L’obiettivo principale dello studio clinico è quello di misurare la correlazione tra la concentrazione di sodio nel plasma del paziente misurata tramite emogas analizzatore e la conducibilità plasmatica stimata dal biosensore Diascan in vari istanti temporali intradialitici e valutare la bontà della stima della sodiemia, ottenuta dalle formule di correlazione, rispetto alle effettive misure di concentrazione. La correlazione globale ottenuta risulta discreta ma inferiore rispetto a precedenti risultati pubblicati in letteratura; si ipotizza che questo scostamento possa dipendere dalla struttura del protocollo di sperimentazione.
Resumo:
L’aterosclerosi rappresenta una delle malattie più diffuse in tutto il mondo ed è caratterizzata da infiammazione cronica delle arterie di grande e medio calibro. In Italia, per esempio, le conseguenze dell’aterosclerosi, quali infarti e ischemie, sono la principale causa di 224.482 decessi annui, pari al 38,8% del totale delle morti. Oltre all’aterosclerosi, una cardiomiopatia congenita abbastanza diffusa, soprattutto nei bambini, è la presenza di anomalie dei setti inter-atriali e inter-ventricolari, che seppure non siano molto pericolosi per la vita del paziente, possono portare a ipertensione polmonare. L’obiettivo di questa tesi è mostrare le tecnologie recenti utilizzati per la cura dell’aterosclerosi e per la rimozione delle placche ateromatose, e per la chiusura trans-catetere dei difetti inter-atriali e inter-ventricolari. Nel primo capitolo viene effettuata una concisa presentazione dell’anatomia e della fisiologia dell’apparato cardio-vascolare; nel secondo capitolo invece vengono prese in rassegna le patologie appena citate e le metodiche di imaging per la loro analisi, evidenziandone, per ognuna, pregi e difetti. Nel terzo capitolo verranno presentate tutte le tecnologie recenti per la cura dell’aterosclerosi, concentrandoci principalmente sulle arterie coronarie, che sono, statisticamente, le più colpite da questa patologia. Infine, sempre nel terzo capitolo, verranno presentati i dispositivi medici per la chiusura dei difetti inter-atriali e inter-ventricolari, chiamati informalmente “ombrellini". L’ultimo capitolo riguarderà un caso particolare, vale a dire il trattamento delle lesioni alle biforcazioni coronariche, che richiedono tecnologie per la cura leggermente diverse rispetto al trattamento di una lesione aterosclerotica di una singola arteria coronarica.
Resumo:
La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.
Resumo:
Il mio elaborato tratta le tecniche e le problematiche affrontate nella chirurgia mini invasiva in presenza di malattie vascolari; si parla di mini-invasiva in quanto la procedura d'intervento,come dice la parola stessa, non consiste in un vero e proprio intervento chirurgico ma bensi', nella maggior parte dei casi , si svolge in day- hospital. Dopo aver descritto cosa si intende per malattie vascolari e i fattori che portano alla loro comparsa all'interno del nostro organismo, mi focalizzo sulle tecniche utilizzate in fase di diagnosi da parte del cardiologo emodinamista per stabilire quale tipo di patologia è stata riscontrata sul paziente e la sua gravità e,successivamente, sulle tecniche d'intervento. Proprio per quel che riguarda le tecniche procedurali, descrivo quelle principalmente utilizzate nel campo della chirurgia mini-invasiva mettendo a confronto la classica tecnica dell'angioplastica, ormai utilizzata da anni, con quella dell'aterectomia che, in base al sistema di funzionamento e al tipo d'intervento da eseguire, si divide in due grosse branche: aterectomia direzionale e aterectomia rotazionale. Dopo aver illustrato il principio tecnologico e di funzionamento di ogni tecnica, in riferimento a studi eseguiti da parte di svariate equipe su un ampio range di pazienti, ho messo a confronto l'angioplastica con l'aterectomia per cercare di stabilire quale tra le due tecniche porta a risultati migliori, soprattutto a lungo termine, in modo tale da ridurre il rischio di restenosi nel paziente(ovvero un ulteriore restringimento nella zona del vaso dove si è intervenuti )
Resumo:
Questo tema è alquanto attuale per la città di Venezia e soprattutto per quanto riguarda proprio il ponte dell’Accademia che, nato come provvisorio, è rimasto tale fino ai giorni nostri. Per comprendere al meglio la natura di questi manufatti, ho analizzato i quattro ponti sul Canal Grande, partendo dal ponte di Rialto, poi Scalzi e Accademia e infine il ponte della Costituzione. L’analisi è stata compiuta sia dal punto di vista storico che costruttivo, ho esaminato tutte le vicende storiche che hanno caratterizzato la loro “immagine” attuale e infine ho deciso di scomporli e studiare ogni parte, partendo dalle fondazioni fino ad arrivare ai parapetti. Oltre a questa minuziosa analisi, abbiamo affrontato il tema dei materiali che compongono questi quattro manufatti e cioè: la pietra, il legno, l’acciaio e il cemento armato. Si è rilevato importante non studiare solo le caratteristiche fisiche e meccaniche, ma anche la loro evoluzione nel tempo e nella storia dell’architettura dei ponti. Queste analisi sono state importanti per realizzare un progetto che non rompesse il filo conduttore che li lega e cioè che sono tutti ad arco ribassato con una freccia sempre minore con l’aumento delle innovazioni tecnologiche. Il progetto, quindi, si evoluto mano a mano che le analisi venivano compiute e in base al bando per il ponte dell’Accademia del comune di Venezia, bandito nel giugno del 2009. Il bando è stato il punto cardine che ha fatto da perno al progetto, delineando i punti fondamentali da seguire e da sviluppare. La documentazione relativa al bando è stata sufficiente per iniziare uno studio approfondito della struttura precedente per comprenderla in tutte le sue parti. Anche l’analisi dei progetti redatti per la Terza Mostra Internazionale dell’Architettura è stata un’occasione per approfondire e sviluppare una forma nuova e nel contempo non invasiva per la città veneta. Tutto questo ha portato alla realizzazione di un progetto che rispetta tutti i punti che il bando impone, utilizzando sia materiali innovativi che tradizionali, creando un manufatto che non stravolge l’immagine di Venezia e che finalmente offre un volto al ponte dell’Accademia che da ottant’anni continua ad avere la “fama” di ponte provvisorio.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
Gli agglomerati calcarei costruiti dalla specie invasiva Ficopomatus enigmaticus, polichete serpulide, possono influenzare i sistemi lagunari e produrre effetti negativi per la pesca e alterazioni nell’ambiente. Le lagune di Corru S’Ittiri (CI), San Giovanni-Marceddì (GM) e Santa Giusta (SG) sono state studiate al fine di definire le condizioni ecologiche che favoriscono le formazione delle costruzioni biogeniche di F. enigmaticus. In questo lavoro sono riportati i risultati preliminari, osservati in ogni laguna, sulle caratteristiche del sedimento (granulometria, sostanza organica e carbonati) e della comunità macrozoobentonica (abbondanza, biomassa e diversità), in due condizioni contrastanti: presenza e assenza dei reef, in due tempi di campionamento (maggio e ottobre 2012). I campioni di sedimento sono stati prelevati esclusivamente nel primo tempo di campionamento. La granulometria dei sedimenti era differente nelle tre lagune: CI e SG si sono rivelate più sabbiose, mentre GM era più fangosa. Sono stati osservati diversi valori nei contenuti di sostanza organica e carbonati senza rivelarsi significativamente diversi. Nel primo tempo di campionamento l’abbondanza di zoobentos varia tra le zone di presenza (P) e le zone di assenza (A) dei reef; in CI l’abbondanza è maggiore in P rispetto ad A, mentre in GM e SG invece è maggiore in A rispetto a P. La stessa situazione si verifica nel secondo tempo di campionamento. La biomassa, al tempo uno, è risultata maggiore nelle zone P rispetto alle zone A in CI e SG; in GM le zone A la biomassa è risultata maggiore rispetto a P. Nel secondo tempo di campionamento i valori risultano maggiori in P rispetto ad A in CI e GM; valori maggiori in A rispetto a P si sono riscontrati in SG. Importante da evidenziare la presenza di un altro costruttore di barriere, Hudroides dianthus, con abbondanze superiori rispetto a quelle di F. enigmaticus in particolare in CI e SG. Sono stati anche trovati diversi individui di Musculista sonhousia in CI e GM. M. senhousia è noto come specie invasiva in molte lagune del Mediterraneo ed è stato recentemente individuato nella zone di Oristano. Questo lavoro ha dimostrato come le caratteristiche dei sedimenti lagunari, la struttura della comunità macrozoobentonica, così come la natura e l’abbondanza delle specie costruttrici di reef può variare tra le lagune e le diverse zone delle lagune. È importante indagare sulle condizioni chimico-fisiche e idrodinamiche delle singole lagune per capire cosa influenza il reale sviluppo dei reef dei biocostruttori.
Resumo:
Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
L'ecografia con mezzo di contrasto è una tecnica non invasiva che consente di visualizzare la micro e la macrocircolazione grazie all'utilizzo di microbolle gassose che si distribuiscono in tutto il sistema cardiovascolare. Le informazioni emodinamiche e perfusionali ricavabili dalle immagini eco con contrasto possono essere utilizzate per costruire un modello a grafo dell'albero vascolare epatico. L'analisi della connettività del grafo rappresenta una strategia molto promettente che potrebbe consentire di sostituire la misurazione del gradiente pressorio venoso del fegato, che richiede cateterismo, determinando un notevole miglioramento nella gestione dei pazienti cirrotici. La presente tesi si occupa della correzione dei movimenti del fegato, che deve essere realizzata prima di costruire il grafo per garantire un'accuratezza adeguata. Per correggere i movimenti è proposta una tecnica di Speckle tracking, testata sia in vitro su sequenze eco sintetiche, sia in vivo su sequenze reali fornite dal Policlinico Sant'Orsola.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.