992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni
Resumo:
Ultrasound imaging is widely used in medical diagnostics as it is the fastest, least invasive, and least expensive imaging modality. However, ultrasound images are intrinsically difficult to be interpreted. In this scenario, Computer Aided Detection (CAD) systems can be used to support physicians during diagnosis providing them a second opinion. This thesis discusses efficient ultrasound processing techniques for computer aided medical diagnostics, focusing on two major topics: (i) Ultrasound Tissue Characterization (UTC), aimed at characterizing and differentiating between healthy and diseased tissue; (ii) Ultrasound Image Segmentation (UIS), aimed at detecting the boundaries of anatomical structures to automatically measure organ dimensions and compute clinically relevant functional indices. Research on UTC produced a CAD tool for Prostate Cancer detection to improve the biopsy protocol. In particular, this thesis contributes with: (i) the development of a robust classification system; (ii) the exploitation of parallel computing on GPU for real-time performance; (iii) the introduction of both an innovative Semi-Supervised Learning algorithm and a novel supervised/semi-supervised learning scheme for CAD system training that improve system performance reducing data collection effort and avoiding collected data wasting. The tool provides physicians a risk map highlighting suspect tissue areas, allowing them to perform a lesion-directed biopsy. Clinical validation demonstrated the system validity as a diagnostic support tool and its effectiveness at reducing the number of biopsy cores requested for an accurate diagnosis. For UIS the research developed a heart disease diagnostic tool based on Real-Time 3D Echocardiography. Thesis contributions to this application are: (i) the development of an automated GPU based level-set segmentation framework for 3D images; (ii) the application of this framework to the myocardium segmentation. Experimental results showed the high efficiency and flexibility of the proposed framework. Its effectiveness as a tool for quantitative analysis of 3D cardiac morphology and function was demonstrated through clinical validation.
Resumo:
Il forte incremento della popolazione mondiale, la continua crescita del tenore di vita e del livello di consumi hanno portato negli ultimi decenni ad un enorme aumento della richiesta mondiale di energia. Diviene pertanto fondamentale ricercare nuovi metodi altamente efficienti di produzione, trasporto ed utilizzo di energia, che migliorino la qualità della vita dell’uomo e nello stesso tempo salvaguardino il clima e l’ambiente. Proprio a questo proposito, in questi ultimi anni, vi è un crescente interesse nei riguardi della molecola di idrogeno, H2. Ad oggi è impossibile sostituire i combustibili fossili con l’idrogeno, per motivi prettamente tecnologici (difficoltà nello stoccaggio e nel trasporto) e per motivi legati alla sua produzione. Infatti, l’idrogeno è sì uno degli elementi più presenti in natura, ma non come sostanza gassosa pura bensì in forma combinata, generalmente acqua, quindi per produrlo è necessario rompere il legame con l’elemento con cui è combinato, consumando energia; questo spiega il motivo per cui l’idrogeno viene considerato un vettore di energia e non una fonte di energia. La produzione di idrogeno, o meglio del suo equivalente costituito da un flusso di elettroni e protoni, dall’acqua è un processo che avviene in natura, precisamente nelle cellule vegetali durante la prima fase della fotosintesi clorofilliana. Tale processo mostra l’importanza dei complessi bio-inorganici che vi partecipano, ai quali si ispira la ricerca di nuovi efficienti catalizzatori per la produzione di idrogeno mediante scissione catalitica dell’acqua (water splitting). Una classe di enzimi particolarmente studiata, in quest’ambito, è costituita dalle idrogenasi; la maggior parte di questi enzimi contengono un frame dinucleare Ni-Fe o Fe-Fe. Numerosi gruppi di ricerca sono fortemente impegnati nell’obiettivo di sintetizzare complessi simili a questi enzimi (enzyme mimics), e con prestazioni paragonabili, in modo da produrre idrogeno in modo efficiente e rispettando i principi di sostenibilità ambientale ed economica. Il gruppo di ricerca presso il quale è stato svolto il tirocinio oggetto del presente elaborato si occupa dello studio di complessi metallorganici caratterizzati dalla presenza di un “core” metallico costituito da due atomi di Ferro adiacenti coordinati tra loro mediante leganti a ponte diversamente funzionalizzati. Obiettivo del tirocinio è stato quello di verificare l’efficienza catalitica di alcuni di questi complessi nel promuovere il processo di interconversione H+/H2; per fare ciò, si è fatto ricorso ad un approccio elettrochimico, sfruttando la tecnica della voltammetria ciclica.
Resumo:
Le sperimentazioni riguardanti la produzione di biodiesel da alghe sono state condotte solo in laboratorio o in impianti pilota e il processo produttivo non è ancora stato sviluppato su scala industriale. L’obiettivo di questo lavoro di tesi è stato quello di valutare la potenziale sostenibilità ambientale ed energetica della produzione industriale di biodiesel da microalghe nella realtà danese ipotizzando la coltivazione in fotobioreattori. La tesi ha analizzato le diverse tecnologie attualmente in sperimentazione cercando di metterne in evidenza punti di forza e punti di debolezza. La metodologia applicata in questa tesi per valutare la sostenibilità ambientale ed energetica dei processi analizzati è LCA strumento che permette di effettuare la valutazione sull’intero ciclo di vita di un prodotto o di un processo. L’unità funzionale scelta è 1 MJ di biodiesel. I confini del sistema analizzato comprendono: coltivazione, raccolta, essicazione, estrazione dell’olio, transesterificazione, digestione anaerobica della biomassa residuale e uso del glicerolo ottenuto come sottoprodotto della transesterificazione. Diverse categorie d’impatto sono state analizzate. In questo caso studio, sono stati ipotizzati 24 diversi scenari differenziati in base alle modalità di coltivazione, di raccolta della biomassa, di estrazione dell’olio algale. 1. la produzione di biodiesel da microalghe coltivate in fotobioreattori non appare ancora conveniente né dal punto di vista energetico né da quello ambientale. 2. l’uso di CO2 di scarto e di acque reflue per la coltivazione, fra l’altro non ancora tecnicamente realizzabili, migliorerebbero le prestazioni energetiche ed ambientali del biodiesel da microalghe 3. la valorizzazione di prodotti secondari svolge un ruolo importante nel processo e nel suo sviluppo su larga scala Si conclude ricordando che il progetto di tesi è stato svolto in collaborazione con la Danish Technical University of Denmark (DTU) svolgendo presso tale università un periodo di tirocinio per tesi di sei mesi
Resumo:
Oggetto della presente tesi di Laurea è lo studio delle nuove tecnologie disponibili per l’immunorivelazione di marcatori proteici in fase solida. Particolare attenzione è stata rivolta alle problematiche e alle esigenze tecniche nella quantificazione del complesso proteico in esame a seguito della rivelazione di un segnale, testimone proporzionale della grandezza biologica in esame. In altre parole l’identificazione e la quantificazione di proteine di interesse avviene a valle di un processo, chiamato “western blotting”, che genera un segnale (colore, luce, fluorescenza) al quale riferire la sostanza molecolare della misura. L’accuratezza della quantificazione, a seguito degli errori sperimentali dovuti alla tecnologia, rappresenta un problema complesso nella pratica biochimica e nello studio dei fenomeni di variazione dell’espressione genica, ovvero del fenotipo, in un organismo. Il primo capitolo si apre con la descrizione del processo di discriminazione delle proteine in base al loro rapporto carica/massa molecolare tramite elettroforesi su gel. Il capitolo prosegue con la disamina della tecnologia di ultima generazione per la visualizzazione delle proteine risolte e la loro eventuale quantificazione, paragonandone le prestazioni rispetto ai sistemi di visualizzazione e quantificazione classici. Argomenti del secondo capitolo sono lo studio delle prestazioni delle nuove tecnologie per l’esecuzione del “blotting” su supporto solido e per l’incubazione delle proteine con immunoglobuline. Seguono, rispettivamente nei capitoli terzo e quarto, l’analisi delle tecnologie analogiche e digitali per la rivelazione del segnale e la quantificazione tramite opportuni software.
Resumo:
Scopo del presente lavoro di tesi è lo studio dei processi di fotogenerazione e trasporto di carica in film sottili di Rubrene trasferiti su substrati differenti, attraverso un’analisi degli spettri di fotocorrente ottenuti in laboratorio. I cristalli sono studiati realizzando contatti ohmici mediante deposito di vapori di oro sul campione. Le prestazioni ottenute variano a seconda del substrato; i segnali di fotocorrente migliori derivano dai campioni su vetro. L’andamento qualitativo è il medesimo al variare dei cristalli, così come i valori di energia dei fotoni incidenti corrispondenti ai picchi massimi del segnale. Si evidenziano tuttavia distribuzioni di difetti leggermente differenti. Nell’analisi comparata tra gli spettri di assorbimento e fotocorrente si riscontra un comportamento antibatico; vari tentativi di simulazione e applicazione dei modelli finora noti in letteratura per i cristalli organici (sebbene non ve ne siano per i film sottili di Rubrene), mostrano la completa inapplicabilità degli stessi al presente caso di studio evidenziando la necessità di modelli teorici specificamente studiati per la nanoscala. Una ragionevole motivazione di tale scontro risiede proprio nel conflitto tra gli ordini di grandezza dei parametri delle strutture in esame e le leggi sulle quali si basano le analisi proposte in letteratura, incongruenza che non appare invece su scala micrometrica, ove tali modelli sono stati sviluppati.
Resumo:
In questo elaborato sono descritti la progettazione e lo sviluppo di un sistema tomografico con sorgente di raggi X da 300 kV per analisi nel campo dei Beni Culturali; in particolare sono stati effettuati test preliminari sia per verificare le prestazioni del tubo a raggi X e dello schermo scintillatore sia per avere indicazioni utili alla progettazione (e conseguente costruzione) del box di rivelazione. Il collaudo della sorgente di raggi X è stato eseguito con lo studio dell'andamento della dose integrale e/o del rateo di dose in funzione della tensione, della corrente e del tempo d'irraggiamento. La caratterizzazione dello schermo scintillatore di CsI(Tl) è basata sul confronto delle sue caratteristiche con uno schermo analogo di spessore differente nelle stesse condizioni sperimentali, attraverso lo studio dei parametri standard dei dispositivi per imaging, quali la curva di risposta, il rapporto segnale-rumore e la risoluzione spaziale. Inoltre, come ulteriore test, lo schermo scintillatore è stato utilizzato per l’indagine tomografica di alcuni pani di terra contenenti olle di epoca villanoviana. Per la progettazione del box rivelatore sono state invece svolte misure di tipo ottico. I vari test svolti in laboratorio hanno dato risultati positivi e hanno dimostrato la validità dei componenti scelti per il nuovo sistema tomografico, il cui assemblaggio verrà completato a breve, essendo stata ultimata proprio in queste settimane la costruzione del box di rivelazione.
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
Il lavoro di questa tesi riguarda principalmente la progettazione, simulazione e test di laboratorio di tre versioni successive di schede VME, chiamate Read Out Driver (ROD), che sono state fabbricate per l'upgrade del 2014 dell'esperimento ATLAS Insertable B-Layer (IBL) al CERN. IBL è un nuovo layer che diverrà parte del Pixel Detector di ATLAS. Questa tesi si compone di una panoramica descrittiva dell'esperimento ATLAS in generale per poi concentrarsi sulla descrizione del layer specifico IBL. Inoltre tratta in dettaglio aspetti fisici e tecnici: specifiche di progetto, percorso realizzativo delle schede e test conseguenti. Le schede sono state dapprima prodotte in due prototipi per testare le prestazioni del sistema. Queste sono state fabbricate al fine di valutare le caratteristiche e prestazioni complessive del sistema di readout. Un secondo lotto di produzione, composto di cinque schede, è stato orientato alla correzione fine delle criticità emerse dai test del primo lotto. Un'indagine fine e approfondita del sistema ha messo a punto le schede per la fabbricazione di un terzo lotto di altre cinque schede. Attualmente la produzione è finita e complessivamente sono state realizzate 20 schede definitive che sono in fase di test. La produzione sarà validata prossimamente e le 20 schede verranno consegnate al CERN per essere inserite nel sistema di acquisizione dati del rivelatore. Al momento, il Dipartimento di Fisica ed Astronomia dell'Università di Bologna è coinvolto in un esperimento a pixel solamente attravers IBL descritto in questa tesi. In conclusione, il lavoro di tesi è stato prevalentemente focalizzato sui test delle schede e sul progetto del firmware necessario per la calibrazione e per la presa dati del rivelatore.
Resumo:
L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.
Resumo:
Studio su un compressore assiale pluristadio con elevato rapporto di compressione, circa 46, la cui mandata è collegata ad un motore Diesel aeronautico ad elevate prestazioni. Lo studio è stato svolto, mediante l'utilizzo del software AEDsys, sia dal punto di vista fluidodinamico (calcolo numero di stadi, rapporti di compressione per stadio, triangoli di velocità), sia dal punto di vista dimensionale (dimensionamento di massima, lunghezza, dimensione radiale).
Resumo:
In questa trattazione è analizzato il tema della ventilazione negli ambienti indoor. Oggi questo argomento è di notevole interesse a causa di una serie di fattori molto importanti: - L’uomo trascorre la maggior parte del tempo in spazi chiusi - L’Organizzazione Mondiale della Sanità sottolinea come molte malattie, tra cui asma e allergie, derivino dall’eccesso di umidità interna e dalla presenza di muffe - Gli stili di vita lavorativi sono differenti rispetto al passato: non c’è più tempo per aprire adeguatamente le finestre - L’aria interna è da 10 a 100 volte più inquinata di quella esterna - Negli ambienti i materiali di arredo e i prodotti per la pulizia possono emettere sostanze nocive - L’infiltrazione dai serramenti, con la costruzione di edifici sempre più ermetici e a bassa permeabilità all’aria, risulta insufficiente per garantire un corretto ricambio - Le nuove leggi in materia di risparmio energetico impongono limiti sul fabbisogno energetico di riscaldamento, in parte dovuto ai processi di ventilazione. Vengono quindi analizzati i due sistemi di ventilazione possibili ad oggi in campo residenziale: la ventilazione naturale e la ventilazione meccanica controllata (VMC) applicati poi ad un edificio nel quartiere di Corticella (BO). Sono stati posti poi a confronto i due sistemi nel calcolo dei fabbisogni energetici per ventilazione e nelle relative incidenze rispetto al termine legato allo scambio termico per trasmissione. Viene proposta infine un'ipotesi di realizzazione di impianto di ventilazione meccanica integrato con una riqualificazione architettonica completa dell'edificio per il raggiungimento di elevate prestazioni energetiche.
Resumo:
Dal 2010 al 2012 ho fatto parte del team UniBo Motorsport, che partecipa alle competizioni di Formula SAE, una categoria di vetture monoposto a ruote scoperte con cilindrata fino a 610cm^3, interamente progettate e costruite da studenti universitari, valutati non solo per le prestazioni dinamiche della vettura ma anche su prove statiche legate agli aspetti progettuali, economici e gestionali. Nel team ho curato i servizi IT e le prove statiche "Presentation Event", una simulazione di business plan per una nuova impresa automotive legata al prototipo, e "Cost & Manufacturing Analysis Event", un'analisi dei costi e della produzione attraverso una distinta base di produzione della vettura. In particolare nel 2012 sono stato responsabile della distinta base, introducendo importanti strumenti ed ottimizzazioni per semplificare la redazione ed ottenere migliori risultati. Nel 2013 ho fornito consulenza ai membri del team che ora seguono il lavoro. A partire da questa esperienza ho deciso di sviluppare la tesi sul tema della gestione della distinta base di produzione, spiegando nel dettaglio i cambiamenti apportati, le motivazioni e i risultati ottenuti. Prendo inoltre in esame alcuni componenti meccanici della vettura, sia per esemplificare la redazione della distinta base, che per alcuni aspetti interessanti di questi componenti: le ruote foniche, per cui sono disponibili molti dettagli sulle fasi di produzione, i rocker delle sospensioni e la corona monoblocco, di cui è stata considerata la produzione da parte di fornitori asiatici oltre che locali con vari preventivi disponibili per il confronto dei diversi mercati.
Resumo:
Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.
Resumo:
Attraverso questo studio sono state indagate le proprietà di compositi laminati in fibra di carbonio (CFRP) nano-modificati con nanofibre in Nylon 6.6, in termini di resistenza al danneggiamento da impatti a bassa velocità (con caratterizzazione Drop Weight at Low Velocity) e di smorzamento della vibrazione (con caratterizzazione a damping). Sono stati indagate due configurazioni di nanorinforzo differenti, confrontate con le prestazioni di provini vergini laminati tradizionalmente. Sono infine state operate delle analisi grafiche delle micrografie di campioni sezionati per trarre conclusioni di carattere tecnologico.