470 resultados para Carathéodory teorema estensione misura
Resumo:
Nel settore dell'elettronica organica, i monocristalli organici sono particolarmente indicati, grazie al loro alto grado di purezza chimica, per lo studio delle qualità intrinseche di tutta la categoria dei cristalli organici. L'interesse applicativo si concretizza in dispositivi come LED, pannelli solari, sensori, display e componenti elettronici leggeri, flessibili e trasparenti. A tutto questo si aggiungono la biocompatibilità, il basso costo ed il basso impatto ambientale. L'obiettivo del seguente lavoro di tesi è la caratterizzazione di alcuni monocristalli in base alle loro proprietà ottiche ed optoelettroniche, analizzandoli mediante tecniche microscopiche in luce polarizzata e campo scuro e tecniche spettroscopiche di assorbimento e del voltaggio superficiale. Si è concentrata l'attenzione sul monocristallo di 4-idrossicianobenzene (4HCB), per la possibilità di confronto con risultati di precedenti analisi di spettroscopia in fotocorrente e per l'interesse verso applicazioni sensoristiche. Come risultato, per la prima volta, si è riuscito a ottenere uno spettro di assorbimento da un monocristallo di 4HCB dal quale si può stimare direttamente l'energia del bandgap del cristallo. Il valore ottenuto è minore di quello relativo all'analisi in fotocorrente, ma potrebbe corrispondere ad un bandgap di tipo ottico considerando che la presenza di stati localizzati dovuta al disordine molecolare provoca una diminuzione della distanza tra le bande. La misura è preliminare è va confermata, ma apre la strada ad ulteriori analisi spettroscopiche in condizioni sperimentali più favorevoli e/o ad analisi di altro tipo.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.
Resumo:
I calibratori di attività sono strumenti fondamentali in medicina nucleare, utilizzati da ogni struttura al fine di quantificare l’attività di radiofarmaco da somministrare al paziente. L'accurata taratura di questi strumenti richiederebbe la disponibilità di sorgenti di riferimento certificate per ciascun radionuclide di interesse; tuttavia vi è una importante serie di casi in cui questo metodo non è praticabile a causa delle caratteristiche del radionuclide, come ad esempio il brevissimo tempo di dimezzamento. Lo scopo di questo studio è stato determinare il fattore di taratura per un radioisotopo PET a brevissimo tempo di dimezzamento, il 11C, per il quale non sono commercialmente reperibili delle sorgenti certificate, eseguendo un’accurata misura dell’efficienza di rivelazione di un moderno rivelatore per spettrometria allo specifico valore di energia di 511 keV dei fotoni di annichilazione. Lo strumento utilizzato è un nuovo rivelatore a CZT (tellururo di cadmio-zinco), il Kromek GR1, un rivelatore compatto che opera a temperatura ambiente, caratterizzato da una interessante risoluzione energetica e da una efficienza di rivelazione contenuta, quest’ultima adeguata per l’analisi di campioni che hanno un’attività relativamente elevata, come di frequente accade nei siti di produzione dei nuclidi radioattivi. Le misure sperimentali sono state eseguite cercando di ottimizzare ogni passaggio al fine di minimizzare le incertezze, in modo da ottenere una stima accurata del fattore di taratura, secondo una modalità tracciabile ad uno standard accreditato NIST e riproducibile per qualunque altro radioisotopo PET. Potranno quindi essere constatati i fattori di taratura noti di altri radionuclidi e successivamente stimati i fattori per radioisotopi sperimentali anche mediante diversi modelli di calibratori.
Resumo:
Il lavoro presentato in questa tesi è stato svolto nell'ambito dell'esperimento MAGIA (Misura Accurata di G mediante Interferometria Atomica) che, come suggerito dall'acronimo, si propone di realizzare una misura della Costante Gravitazionale G utilizzando un interferometro atomico come sensore di forza. L'obbiettivo di MAGIA è quello di fornire una misura di G con un'incertezza di circa 100 ppm, per raggiungere lo scopo è necessario conoscere il gradiente gravitazionale presente nel laboratorio durante la misura di G. Un errore nella valutazione del gradiente gravitazionale del 10% comporterebbe un errore nella misura di G di 26 ppm. Si è quindi modificato l'apparato per abilitarlo alla misura del gradiente. Dopo la determinazione del gradiente gravitazionale si è portando l'errore sulla misura di G causato dalla sua incertezza a circa 1 ppm. Vista l'importanza della misura del gradiente gravitazionale negli studi geologici e nella ricerca mineraria, si è studiata la possibilità dell'utilizzo dello strumento come gradiometro per misure geologiche. Inoltre si è anche caratterizzato il sistema di iniezione degli atomi e se n’è studiato un possibile miglioramento.
Resumo:
I materiali per applicazioni fotovoltaiche hanno destato un interesse crescente nella comunità scienti�ca negli ultimi decenni. Le celle HIT (Het- erojunction Intrinsic Thin Layer ) sono dispositivi di ultima generazione che hanno raggiunto e�cienza elevata mantenendo bassi i costi di pro- duzione, e impiegano silicio amorfo (a-Si) come strato emettitore per il suo buon assorbimento della luce e silicio cristallino come regione attiva. La struttura amorfa del silicio presenta però una bassa conducibilità, oltre ad e�etti di degradazione che limitano considerevolmente la durevolezza di una cella. Per questo motivo si stanno cercando possibili alternative al silicio amorfo, in particolare strutture multifase e composti di silicio, ossigeno ed azoto. In questo lavoro sono esposti i risultati dell'analisi di sottili lay- er di Silicon Oxynitride ossigenato (SiOx Ny :H), in forma microcristallina, deposti tramite PECVD (P lasma-Enhanced Chemical Vapor Deposition) su vetro presso l'università di Costanza. La forma microcristallina è una distribuzione di agglomerati cristallini dell'ordine di grandezza di un mi- crometro in una matrice di silicio amorfo, e attualmente le sue proprietà ottiche ed elettroniche non sono ancora state studiate in maniera appro- fondita. Nonostante ciò, è invece evidente che la fase microstallina non presenta tanti difetti intrinseci come la forma amorfa e ne è quindi una val- ida alternativa. In questa ottica, si è svolto uno studio sperimentale delle proprietà ottiche di layers in forma microcristallina di SiOx Ny :H, quali la misura del gap energetico. I risultati sperimentali, volti a trovare la dipen- denza delle caratteristiche dai parametri di deposizione dei layers, hanno mostrato una riduzione del gap energetico con la concentrazione di N2 O, uno dei gas precursori utilizzati nella deposizione dei layers in camera di processo. In conclusione si può dire che il μc−SiOx Ny :H ha le buone carat- teristiche tipiche dei semiconduttori cristallini, che unite alla possibilità di regolare il valore del gap energetico in base alle scelte in fase di deposizione, gli conferisce buone prospettive per applicazioni in celle fotovoltaiche, come emettitore in celle ad eterogiunzione.
Resumo:
Il vento di barriera (VB) è un fenomeno meteorologico a mesoscala che interessa il flusso nei bassi strati atmosferici ed è dovuto all'interazione con l'orografia. Se il numero di Froude upstream è sufficientemente piccolo si genera una deviazione orizzontale del flusso incidente. Si può raggiungere uno stato quasi-stazionario, nel quale un intenso vento soffia parallelo all'orografia nei bassi strati. Nel presente lavoro si è innanzitutto sviluppata una climatologia degli eventi di VB nella regione italiana su un periodo biennale. Gli eventi sono stati classificati per la velocità del flusso incidente e la velocità e direzione del VB a 950 hPa, e per il numero di Froude upstream. Si è poi studiata la distribuzione degli eventi rispetto al numero di Froude. La climatologia è risultata in buon accordo con la teoria idealizzata dei flussi sopra l'orografia. Tre casi di studio sono stati successivamente simulati utilizzando i modelli BOLAM e MOLOCH dell'istituto CNR-ISAC di Bologna. Per ciascun evento sono stati calcolati il numero di Froude upstream e i parametri principali, quali velocità, estensione, temperatura ecc. Per uno dei casi, riguardante le Alpi orientali, le simulazioni sono state confrontate con dati osservati di vento, pressione, temperatura e precipitazione. Sono poi stati condotti dei sensitivity tests con orografia diminuita su ognuno degli eventi. È stata così verificata l'importanza dell'effetto orografico e l'intensità del fenomeno del VB è stata associata al numero di Froude. Un indice, denominato Barrier Wind Index (BWI) è stato ideato a tale scopo. Le simulazioni hanno mostrato un buon accordo con la teoria, indicandone i limiti di applicabilità all'atmosfera reale. In particolare, il Barrier Wind Index tende ad aumentare linearmente al diminuire del numero di Froude. Le simulazioni hanno evidenziato l'elevata influenza del VB sulla circolazione atmosferica a mesoscala, sulla distribuzione e intensità della precipitazione e sull'avvezione di temperatura e umidità.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.
Resumo:
Scopo della tesi è la realizzazione di rilievi fitosociologici nel SIC “IT4080008 Balze di Verghereto, Monte Fumaiolo, Ripa della Moia” (provincia di Forlì-Cesena). Il gruppo montuoso del Monte Fumaiolo, posto al confine tra le Vallate del Savio e del Tevere, è stato proposto nel 1995 come Sito di Importanza Comunitaria. E' un'area colonizzata già nell'antichità dall'uomo e comprende una grande estensione di pascoli montani, con rupi calcaree e rilievi comprendenti faggete, abetine artificiali, rimboschimenti e prati pascoli. Nell'ambito di una ricerca sulla distribuzione degli habitat di maggior pregio in questo sito sono stati realizzati campionamenti, basati sul metodo Braun Blanquet, nel periodo tra Lunglio e Settembre 2013. I dati raccolti sono stati successivamente elaborati tramite software Matlab versione 7.10.0.282 creando due dendrogrammi allo scopo di descrivere sia la qualità naturale del SIC, sia dal punto di vista degli habitat. Dalle informazioni raccolte è stata possibile la definizione di due tipologie di vegetazione: le formazioni forestali e gli ambienti aperti. I risultati mostrano 57 rilievi inerenti ai boschi divisi in ulteriori sottogruppi rappresentanti boschi a faggio, situazioni miste con Fagus sylvatica e Abies alba, querceti misti e rimboschimenti a Pinus nigra. I 27 rilievi degli ambienti aperti mostrano invece una predominanza di prati-pascolo e pascoli con situazioni di evoluzione ad arbusteti a Cytisus scoparius e Juniperus communis. Sono state campionate anche le vegetazioni a succulente presenti su affioramenti rocciosi. Le informazioni ottenute ed elaborate possono essere utili per studi futuri e per la creazione di una carta fitosociologica sulla base dei rilievi effettuati e della pregressa carta della vegetazione su base fisionomica (Barlotti 2013).
Resumo:
Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.
Resumo:
Lo scopo della tesi è descrivere i buchi neri di Kerr. Dopo aver introdotto tutti gli strumenti matematici necessari quali tensori, vettori di Killing e geodetiche, enunceremo la metrica di Kerr, il teorema no-hair e il frame-dragging. In seguito, a partire dalla metrica di Kerr, calcoleremo e descriveremo le ergosfere, gli orizzonti degli eventi e il moto dei fotoni nel piano equatoriale.
Resumo:
Fino alla fine del XIX secolo erano le mura a conferire una forma chiara e precisa alla città. Dopo il loro abbattimento c'è oggi un elemento urbano capace di porsi come limite formale della città? In fase di tesi abbiamo deciso di dare una soluzione al problema della frammentazione del limite dal punto di vista opposto, agendo sul centro storico in relazione alla prima espansione urbana. Abbiamo operato un'attenta analisi delle dinamiche della città prima e dopo il terremoto, cercando di comprendere le specificità di questo territorio. Da una ulteriore e più approfondita lettura del centro storico, emerge subito l'assenza di un tessuto urbano ben leggibile in corrispondenza dell'area del Castello e del Comune, dove una grande "macchia" di spazi aperti, prevalentemente adibiti a parcheggio prevalgono sul costruito: l'area che ha dato vita e un senso durante i secoli a questa città ha perso la sua identità. Identità, misura, connessione sono gli obiettivi che ci prefissiamo di raggiungere nella ridefinizione di questi luoghi ed insieme le parole chiave del nostro approccio al nostro progetto. Il nostro intervento prevede la definizione di un polo culturale che possa valorizzare le caratteristiche storiche e morfologiche dell'area conferendo intelligibilità agli elementi che hanno sempre caratterizzato lo splendore della città. Il "verde" diviene elemento di connessione tra le due aree di progetto. Le funzioni che abbiamo scelto nella definizione del polo culturale sono quelle di museo, cinema, e mercato: la scelta è stata quella di progettare edifici pubblici, con lo scopo di riportare i luoghi di intrattenimento e della cultura all'interno del centro storico.
Resumo:
L'esame clinico della palpazione manuale dei tessuti è ancora oggi l'indagine preliminare più diffusa per l'identificazione e la diagnosi delle lesioni superficiali. L'esame è infatti in grado di fornire al medico esaminatore una valutazione qualitativa circa le proprietà meccaniche dei tessuti indagati, in particolare per quanto concerne la rigidità. I limiti fondamentali e intrinseci della palpazione sono l'impossibilità di raggiungere i tessuti in profondità, limitando quindi l'analisi agli elementi anatomici superficiali, e la grandezza delle lesioni rilevabili. L'elastografia si inserisce in tale contesto come strumento diagnostico in grado di valutare le proprietà meccaniche dei tessuti in funzione della profondità, con una risoluzione spaziale non ottenibile attraverso la semplice palpazione. L'elastosonografia rappresenta la metodologia elastografica attualmente più diffusa, caratterizzata da numerose tecnologie specializzate nell'indagine di diversi elementi anatomici. Il vantaggio fondamentale dell'elastosonografia rispetto ad altre metodiche come l'elastografia a risonanza magnetica o l'elastografia tattile risiede nell'integrazione efficace con la tradizionale indagine ecografica. L'elaborato si pone l'obiettivo di descrivere e valutare le varianti implementative dell'elastosonografia e la loro efficacia come strumento diagnostico. La prima parte (parte I) riassume i concetti fondamentali alla base dell'indagine ecografica, fornendo le nozioni teoriche ed un contesto adeguato alla comprensione dell'elastosonografia. Entrambe le indagini sono infatti basate principalmente sull'emissione e ricezione di ultrasuoni. La parte centrale (parte II) dell'elaborato analizza le principali tecniche elastosonografiche attualmente esistenti. I metodi descritti, a prescindere dal principio di funzionamento specifico, sono accomunati dalla medesima dinamica fondamentale che comprende una eccitazione meccanica del tessuto e l'osservazione della relativa risposta, per fornire una misura qualitativa o quantitativa della rigidità del tessuto in esame. L'ultima parte (parte III) analizza alcuni casi applicativi di particolare rilevanza, soffermandosi sulla valutazione dal punto di vista statistico del contributo fornito dalla specifica tecnica elastosonografica rispetto alle indagini tradizionali.