937 resultados para ricostruzione immagini regolarizzazione in norma L1 metodo di tipo Newton formule L-BFGS
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Uso di 3d slicer in ambito di ricerca clinica: Una revisione critica delle esperienze di riferimento
Resumo:
Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
Scopo della tesi è studiare un modello di percezione cromatica, che descrive la propagazione dell'attività mediante un problema di Cauchy in spazi di Banach. Presentiamo dapprima il problema della stabilità delle soluzioni al problema di Cauchy tramite il metodo Lyapunov; prima in dimensione finita, e poi in spazi di Banach. Poi verifichiamo che l'equazione fondamentale di percezione cromatica ricade nel setting considerato e che il funzionale di Lyapunov associato verifica le ipotesi che assicurano la stabilità.
Resumo:
I Software di editing o manipolazione delle immagini sono divenuti facilmente disponibili nel mercato e sempre più facili da utilizzare. Attraverso questi potenti tool di editing è consentito fare delle modifiche al contenuto delle immagini digitali e violarne l'autenticità. Oggigiorno le immagini digitali vengono utilizzate in maniera sempre più diffusa anche in ambito legislativo quindi comprovarne l'autenticità e veridicità è diventato un ambito molto rilevante. In questa tesi vengono studiati alcuni approcci presenti in letteratura per l'individuazione di alterazioni nelle immagini digitali. In particolare modo è stata approfondita la tecnica di alterazione digitale definita Morphing che, utilizzata in fotografie per il rilascio di documenti di identità di viaggio con elementi biometrici, potrebbe comportare dei rischi per la sicurezza. Il lavoro di questa tesi include, infine, la verifica del comportamento di alcuni Software in commercio in presenza di immagini campione soggette a diversi tipi di alterazione.
Resumo:
Il presente lavoro di tesi per la Laurea Specialistica in Geologia e Territorio è stato concepito come ricostruzione, approfondimento e verifica dell’insieme di interventi finalizzati alla stabilizzazione di versante che hanno coinvolto il tratto della ferrovia Porretta-Pistoia ubicato tra la progressiva 50 + 730 e la progressiva 50 + 650. In quest’area, alle prime ore del giorno 5 Gennaio 2014, è avvenuto l’innesco di un evento franoso che ha coinvolto il rilevato su cui transita la via ferrata: la causa della mobilizzazione è stata ricondotta fin da subito all’intenso evento piovoso occorso nei giorni precedenti la mobilizzazione. La zona coinvolta nel dissesto è situata nei pressi della frazione di Corbezzi, in località Casciano, nel territorio nord-orientale della provincia di Pistoia: il bacino idrografico è quello del torrente Brana, tributario del Fiume Ombrone. L’urgenza e l’importanza della realizzazione di questi interventi non era da attribuirsi alla pericolosità nei confronti delle vite dei residenti, ma piuttosto al fatto che l’opera ferroviaria è da considerarsi come un bene di importanza strategica non solo per la provincia di Pistoia, ma anche per le regioni Toscana ed Emilia-Romagna, in quanto mezzo efficace di collegamento e spostamento di pendolari e merce tra le due. L’elaborato che viene proposto è il risultato delle analisi dei dati acquisiti in fase di progettazione, dello studio effettuato direttamente in campo e di una fase finale di verifica sulla stabilità del versante a seguito della realizzazione delle opere e sulla correttezza del dimensionamento previsto per le stesse. Infine, ma non di minor importanza, viene proposto un approfondimento della coerenza dell’intervento nei confronti del contesto paesaggistico.
Resumo:
Tra tutte le tecniche sviluppate per il recupero di segnali, i metodi basati sul principio di rilevazione sincrona, utilizzati dagli amplificatori lock-in, sono largamente i più usati in tutti i campi della ricerca scientifica. Gli amplificatori lock-in sono strumenti utilizzati per rilevare e misurare segnali in ambienti in cui il rumore di fondo può essere di diversi ordini di grandezza più grande del segnale che si intende misurare. In questo lavoro viene presentato un metodo per realizzare un amplificatore lock-in digitale su scheda hardware NI ELVIS II+ e software LabVIEW. In seguito viene descritto come, attraverso test opportuni, sono state analizzate le performance del sistema realizzato e sono state confrontate con i sistemi disponibili commercialmente. Infine, l’amplificatore lock-in realizzato è stato poi utilizzato in un esperimento di misura spettroscopica dell’energia di gap di un campione di Germanio per mezzo dell’effetto fotoelettrico interno.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
L'importanza dell'acciuga europea (Engraulis encrasicolus) come risorsa ittica, sia a livello economico che ecologico, nel Mar Mediterraneo, ha portato alla necessità di monitorare la biomassa deponente di questa specie per cercare di dare un limite al suo sovrasfruttamento (rappresentando il 22% delle catture nazionali). Lo studio effettuato riguarda le stime di fecondità dell'acciuga europea tramite l'applicazione di un metodo di analisi d'immagine, Whole Mount, su campioni di gonadi di adulti maturi e pronti alla deposizione. Il campionamento degli esemplari è avvenuto durante due campagne oceanografiche, organizzate dall'U.O.S di Capo Granitola dell'Istituto per l'Ambiente Marino Costiero del CNR, che hanno coperto l'area dello Stretto di Sicilia e del Mar Tirreno, durante i mesi estivi che rappresentano il picco di deposizione della specie. Nel presente lavoro sono stati analizzati in totale 76 ovari di acciuga, provenienti da entrambe le aree di campionamento e che presentassero ovociti maturi e risultassero, quindi, in una fase di deposizione nota come "deposizione imminente". Per entrambe le aree di studio è stata stimata una relazione lunghezza-peso con andamento esponenziale. I test statistici non parametrici di Kolmogorov-Smirnov e di Mann-Whitney hanno permesso di stimare se vi fossero differenze tra la fecondità, l'indice gonadosomatico (IGS) e il fattore di condizione (CF) nelle due aree, Stretto di Sicilia e piattaforma settentrionale siciliana. I valori di CF sono risultati significativamente differenti tra le due aree se valutati con il test di Kolmogorov-Smirnov, tuttavia tale differenza non è stata confermata dal test di Mann-Whitney. L'IGS e la fecondità, invece, sono risultati significativamente diversi nelle due aree per entrambi i test. Si può ipotizzare che valori di fecondità differenti nelle due aree, nonostante in entrambi i casi il campionamento sia avvenuto durante il picco di riproduzione della specie, possono essere dovuti alla variabilità dei fattori abiotici, quali temperature e nutrienti, differenti nello Stretto di Sicilia e nell'area lungo le coste settentrionali siciliane. Temperatura e nutrienti possono essere differenti, poiché vi è un diverso movimento delle masse d'acqua causato da correnti distinte nelle due aree. Conoscere la variabilità dei parametri riproduttivi di una specie di rilevanza commerciale così alta, come l'acciuga, rappresenta uno strumento fondamentale per scegliere le misure di gestione sostenibile degli stock più appropriate per aree differenti.
Resumo:
Oggi il mercato mondiale dell'anidride maleica (AM) è in continua espansione grazie ad un numero sempre crescente di applicazioni finali e sviluppo di nuove tecnologie industriali. La AM viene impiegata nella produzione di resine poliestere insature e resine alchidiche e nella produzione di chemicals a più alto valore aggiunto. Il processo di sintesi è tutt’ora basato sull'ossidazione selettiva del benzene e del n-butano. Con l’aumento delle emissione di gas serra, legate all’impiego di materie di origine fossile e la loro continua diminuzione, si stanno studiando nuovi processi basati su materie derivanti da fonti rinnovali. Tra i vari processi studiati vi è quello per la sintesi di AM, i quali utilizzano come molecola di furfurale, 5-idrossimetilfurfurale e 1-butanolo; tutte queste presentano però il problema di un costo superiore rispetto alle molecole tutt’ora usate. Ad oggi una delle molecole ottenibili da fonti rinnovabili avente un costo competitivo alle materie derivanti da fonti fossili è il bio-etanolo. Essendo nota la possibilità di trasformare dell’etanolo in composti a 4 atomi di carbonio (C4) come 1-butanolo (reazione di Guerbet) e in 1,3- butadiene (processo Lebedev) su ossidi misti Mg/Si e la loro trasformazioni in AM, è’ dunque possibile ipotizzare un processo operante in fase gas che accoppi entrambi i processi. Lo scopo di questo lavoro di tesi è stato quello di effettuare uno studio su sistemi catalitici mediante differenti approcci impiantistici. Il primo ha previsto l’impiego di un sistema detto “a cascata” nel quale è stato accoppiato il sistema misto a base di Mg/Si/O, per la trasformazione dell’etanolo a C4, e il pirofosfato di vanadile (VPP), per l’ossidazione selettiva di quest’ultimi in AM. Il secondo approccio ha previsto l’impiego di un unico sistema multifunzionale in grado di catalizzare tutti gli step necessari. In quest’ultimo caso, i sistemi studiati sono stati il Mg2P2O7 ed un sistema costituito da VPP DuPont sul quale è stato depositato MgO. I catalizzatori sono stati caratterizzati mediante diffrattometria a raggi X, spettroscopia Raman e analisi dell’area superficiale mediante metodo BET, mentre i test catalitici sono stati condotti su un impianto di laboratorio con un reattore assimilabile ad un modello di tipo PFR.
Resumo:
La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.