268 resultados para AALISABETH domotica assistenza anziano patologie prevenzione automatico alimentazione lifestyle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio delle relazioni trofiche del nasello tramite analisi del contenuto stomacale è particolarmente importante per la gestione della pesca sia di questa specie che delle specie appartenenti alla sua alimentazione. Lo scopo della tesi è stato quello di esaminare l’alimentazione di questa specie utilizzando 200 campioni di nasello provenienti dalla Campagna Medits 2014, e confrontare la metodologia morfologica utilizzata con quella molecolare, determinando i vantaggi di ognuna ed i possibili limiti. La campagna di strascico è stata sviluppata secondo uno schema random stratificato in relazione alla profondità e all’interno di ciascun strato. Lo sbarcato è stato preventivamente sottoposto ad analisi biometriche registrando lunghezza totale, peso, sesso e maturità sessuale di ogni singolo individuo; successivamente sono stati conservati in etanolo gli stomaci prelevati dai 200 naselli scelti per classe di taglia. Sono state riconosciute le prede dei campioni di nasello sia analizzandole qualitativamente (al livello tassonomico più basso possibile), che quantitativamente, considerando alcuni degli indici maggiormente utilizzati. È stato poi calcolato l’indice trofico del nasello e sono stati infine confrontati i risultati con quelli delle analisi molecolari evidenziando le prede non riconosciute e gli errori di identificazione. La metodologia morfologica ha sottolineato che l’alimentazione del nasello dipende fortemente dalla taglia del predatore e dal loro grado di maturità sessuale, ma non varia significativamente in base al sesso. Ha infatti evidenziato una taglia del nasello, corrispondente alla taglia di prima maturità sessuale, in cui la specie cambia gradualmente la sua alimentazione, passando da piccoli crostacei a pesci di grandezza sempre maggiore. Risulta essere un forte predatore specializzato, ma che al tempo stesso risulta essere una specie opportunista, scegliendo il proprio cibo da ciò che ha a disposizione. Il confronto con l’analisi molecolare è stato utile per descrivere i pro e i contro di ciascuna metodologia, dimostrando che è necessario sfruttarle entrambe per avere risultati efficaci e completi dell’alimentazione di una specie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il contributo di questo lavoro è stata la realizzazione di un motore di layout specializzato per il testo a fronte basato su paradigma dichiarativo chiamato Sider, che permette all'utente di generare automaticamente layout a fronte anche complessi specificando direttamente le regole da utilizzare per l'allineamento, riducendo drasticamente i problemi legati agli approcci tradizionali. La scelta di seguire un approccio dichiarativo, è stata dettata dal fatto che è il paradigma che permette di ottenere il miglior compromesso tra automatizzazione del layout e interazione utente poiché per natura stessa del testo a fronte l'intervento umano non è totalmente eliminabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'argomento di questa tesi è la multisensorialità sensoriale. L'obbiettivo che abbiamo perseguito è stato quello di utilizzare un modello sviluppato in precedenza per effettuare un'analisi di sensitività e capire il ruolo che hanno i vari fattori per lo sviluppo della rete neurale. Inoltre abbiamo cercato di mostrare come effettivamente tale modello, come da letteratura, effettui una stima bayesiana. Al termine di questo lavoro si è evidenziata la forte influenza degli stimoli cross-modali nell'adattamento automatico della rete verso stimoli più precisi e del ventriloquismo necessario a ponderare gli stimoli a seconda del loro grado di affidabilità. Inoltre è stato dimostrato che attraverso l'utilizzo di una regola di apprendimento realistica, la rete neurale può imparare la funzione di verosimiglianza. Uno stimatore bayesiano di questo tipo riesce a rappresentare realisticamente l'integrazione multisensoriale che il nostro cervello deve intraprendere quando si trova davanti a più stimoli di natura sensoriale diversa. Molto interessanti anche gli sviluppi possibili di questo progetto che verranno accennati nelle ultime parti di questa tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da decenni in evoluzione tecnologica e scientifica la laserterapia rappresenta ormai una nuova frontiera per la medicina riabilitativa e preventiva. Il laser viene sfruttato per i suoi effetti benefici nella terapia antalgica; grazie alle sue caratteristiche riesce a raggiungere i tessuti profondi in tutta sicurezza, senza dolore e senza recare danni al paziente. Gli scopi della terapia sono soprattutto due: antidolorifico e antiinfiammatorio, viene utilizzata per lenire molte patologie da sovraccarico, traumatiche o degenerative che coinvolgono strutture ossee, muscolari, tendinee e articolari. Riscuote successo anche negli ambiti dell'estetica e dello sport. Non presenta grossi effetti collaterali, i risultati sono accertati e consente una rapida ripresa rispetto alle metodiche tradizionali. L'obiettivo dell'elaborato è stato quello di realizzare un laser terapeutico utilizzando i parametri principali che lo caratterizzano – lunghezza d'onda, potenza, modalità di emissione e altri- sulla base delle conoscenze acquisite durante il tirocinio in azienda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro è uno studio preliminare motivato dalla possibilità di integrazione di un sistema ecografico portatile in un'apparecchiatura per Tecarterapia. Lo scopo è permettere al fisioterapista di dare una valutazione oggettiva dell'efficacia dei trattamenti erogati, mediante il calcolo di parametri oggettivi: il confronto tra questi consentirà il monitoraggio e la valutazione del follow-up. La Tecarterapia è particolarmente efficace nel trattamento precoce non chirurgico di tendinopatie e lesioni muscolari e per dimostrarlo sono stati sviluppati due algoritmi per il calcolo automatico di parametri caratterizzanti il tendine e il muscolo. Questi sono stati testatati su pazienti affetti da tendinopatia al tendine d'Achille e lesione ai muscoli flessori della coscia prima e dopo un ciclo di Tecar e i risultati ottenuti hanno rispecchiato le aspettative, permettendo di stabilire oggettivamente l'efficacia della terapia. Per permettere anche ad utenti non esperti in programmazione di utilizzare questi strumenti di calcolo, è stata elaborata, separatamente per le lesioni e le tendinopatie, un’ interfaccia grafica in Matlab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Strategie conoscitive per la valorizzazione di un percorso. Partendo dall'analisi storica, del territorio e del paesaggio, si mettono a sistema quattro edifici di culto lungo la Via Romea Nonantolana, osservando le tecniche costruttive impiegate nella loro realizzazione, ed i fattori ambientali al contorno con una schedatura. Si analizza lo stato di conservazione si propone uno schema di attività ispettive e manutentive, e,prendendo come esempio uno dei quattro edifici, le cause delle patologie sullo stesso e le ipotesi di intervento. Si propone infine un'idea di percorso per poter rendere più fruibili queste fabbriche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.