947 resultados para intelligenza artificiale, test di Turing
Resumo:
Introduzione: Le catene N-linked associate al principale sito di N-glicosilazione (Asn297) delle IgG sono di tipo bi-antennario e presentano una grande microeterogeneità in quanto una o entrambe le antenne possono terminare con uno o due residui di acido sialico, galattosio o N-acetilglucosammina ed essere core-fucosilate. Nell’invecchiamento e in malattie infiammatorie aumenta la percentuale di glicani associati alle catene pesanti delle IgG privi del galattosio terminale (IgG-G0). La glicosilazione enzimatica delle proteine è classicamente un processo intracellulare, sebbene recenti studi abbiano messo in evidenza la possibilità di una glicosilazione ecto-cellulare in quanto le piastrine sono ottimi donatori di nucleotidi-zuccheri. Scopo: Misurare le attività delle glicosiltrasferasi ST6Gal1 e B4GalT plasmatiche (potenzialmente responsabili della glicosilazione di proteine plasmatiche) in soggetti di entrambi i sessi e di età compresa tra 5 e 105 anni e correlarle con lo stato di glicosilazione di IgG circolanti (analizzato mediante lectin-blot) e il GlycoAge test, un noto marcatore di invecchiamento, espresso come il logaritmo del rapporto tra gli N-glicani agalattosilati e di-galattosilati associati a glicoproteine plasmatiche. Risultati e conclusioni: I dati ottenuti indicano che: 1) l’attività B4GalT si propone come nuovo marcatore di invecchiamento perché aumenta linearmente con l’età; 2) la ST6Gal1 è maggiormente espressa solo nei bambini e negli over 80; 3) le attività delle due glicosilatransferasi non risultano correlate in modo significativo né tra loro né con il GlycoAge test, indicando che questi tre marcatori siano espressioni di diversi quadri fisio-patologici legati all’invecchiamento; 4) con l’età si ha una predominanza di glicoforme di IgG pro-infiammatorie, ovvero prive dell’acido sialico, del galattosio terminali e del core fucose; 5) l’attività della ST6Gal1 e B4GalT risultano in controtendenza con il grado di sialilazione e galattosilazione delle IgG, indicando quindi che la loro glicosilazione non avviene a livello extracellulare.
Resumo:
L'intervento di connessione cavo-polmonare totale (TCPC) nei pazienti portatori di cuore univentricolare, a causa della particolare condizione emodinamica, determina un risentimento a carico di numerosi parenchimi. Scopo della ricerca è di valutare l'entità di questo danno ad un follow-up medio-lungo. Sono stati arruolati 115 pazienti, sottoposti ad intervento presso i centri di Cardiochirurgia Pediatrica di Bologna (52 pz) e Torino (63 pz). Il follow-up medio è stato di 125±2 mesi. I pazienti sono stati sottoposti ad indagine emodinamica (88 pz), test cardiopolmonare (75 pz) e Fibroscan ed ecografia epatica (47 pz). La pressione polmonare media è stata di 11.5±2.6mmHg, ed in 12 pazienti i valori di pressione polmonare erano superiori a 15mmHg. La pressione atriale media era di 6.7±2.3mmHg ed il calcolo delle resistenze vascolari polmonari indicizzate (RVP) era in media di 2±0.99 UW/m2. In 29 pazienti le RVP erano superiori a 2 UW/m2. La VO2 max in media era pari a 28±31 ml/Kg/min, 58±15 % del valore teorico. La frequenza cardiaca massima all'apice dello sforzo era di 151±22 bpm, pari al 74±17% del valore teorico. Il Fibroscan ha fornito un valore medio di 17.01 kPa (8-34.3kPa). Cinque pazienti erano in classe F2, 9 pazienti in classe F3 e 33 pazienti risultavano in classe F4. Nei pazienti con follow-up maggiore di 10 anni il valore di stiffness epatica (19.6±5.2kPa) è risultato significativamente maggiore a quello dei pazienti con follow-up minore di 10 anni (15.1±5.8kPa, p<0.01). La frequenza cardiaca massima raggiunta durante lo sforzo del test cardiopolmonare è risultata significativamente correlata alla morfologia del ventricolo unico, risultando del 67.8±14.4% del valore teorico nei pazienti portatori di ventricolo destro contro il 79.6±8.7% dei portatori di ventricolo sinistro (p=0.006). L'intervento di TCPC determina un risentimento a carico di numerosi parenchimi proporzionale alla lunghezza del follow-up, e necessita pertanto un costante monitoraggio clinico-strumentale multidisciplinare.
Resumo:
Nata dal progetto di migrazione, in un ambiente consolidato, di una infrastruttura Wireless distribuita su territorio all'interno di una MAN (Metropolitan Area Network), si cerca di illustrare quali sono i passi fondamentali da seguire e con cosa ci si deve misurare per progettare una soluzione funzionale ed elaborare una strategia avendo a che fare con architetture complesse, dove la messa in esercizio di un servizio offerto ad un numero elevato di utenti prevede uno studio ben preciso delle attività da svolgere. Un'attenta analisi, ci consentirà di seguire e riadattare le scelte implementative in funzione delle esigenze infrastrutturali, illustrandone le difficoltà, gli imprevisti e le modifiche intraprese passo passo. Gli argomenti trattati tendono a far comprendere con quali problematiche si ha a che fare nella fase implementativa passando dalla fase di analisi a quella decisionale, quella di migrazione architetturale e di installazione, oltre che alla scelta delle componenti e delle tecnologie specifiche che, prima di essere portate a regime, devono essere sottoposte agli opportuni test per la comprensione/risoluzione di problematiche complesse; come le operazioni necessarie per operare con una efficace metodologia.
Resumo:
Questa tesi tratta della realizzazione e valutazione di un simulatore Web-Based i cui nodi sono connessi tramite Web Real Time Communication (WebRTC) e si testa la sua efficienza mediante la simulazione di un semplice modello di mobilità. Si espongono i principali concetti di simulazione e di WebRTC, fornendo le basi per una maggior comprensione del testo e delle scelte progettuali ed implementative. Si conclude con serie di test comparativi dell’applicativo mettendo in luce pregi e difetti di questo approccio alternativo alla simulazione.
Resumo:
La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.
Propagazione di luce in mezzi disordinati: Misure di trasporto diffusivo tramite imaging stazionario
Resumo:
Nel presente lavoro di tesi è stato effettuato uno studio del trasporto di luce in sistemi diffusivi. Per effettuare tale studio è stato allestito un apparato sperimentale ottimizzato per acquisire profili di trasmissione risolti spazialmente di campioni con geometria a slab. Tramite delle misure su un campione diffusivo di riferimento è stato valutato il funzionamento dell’apparato e sono stati effettuati dei test per ottimizzare il procedimento di misurazione. L’apparato è stato poi impiegato per condurre un’analisi del trasporto in un altro sistema disordinato particolarmente interessante, una scaglia di scarafaggio bianco Chyphochilus. Questa specie presenta una bianchezza unica in natura, per via della particolare struttura ottica insita nelle sue scaglie. Le misure effettuate su questo campione hanno rivelato la presenza di anisotropia di trasporto, elemento che potrebbe rivestire un ruolo centrale nelle eccezionali proprietà macroscopiche della scaglia. Sia l’analisi sul campione diffusivo che sulla scaglia di Chyphochilus dimostrano come l’apparato messo a punto permetta di investigare le proprietà microscopiche e strutturali del processo di trasporto di luce, consentendo di stimare il grado di anisotropia dei sistemi esaminati. L’intero lavoro di tesi è stato svolto presso il laboratorio Europeo di Spettroscopia Non-lineare LENS di Firenze all’interno dell’attività di ricerca del gruppo di ottica dei sistemi complessi di Diederik Wiersma. Il campione di scaglia di Chyphochilus è stato fornito dal prof. Peter Vukusic dell’Università di Exeter, UK.
Resumo:
In the last decade, the mechanical characterization of bone segments has been seen as a fundamental key to understanding how the distribution of physiological loads works on the bone in everyday life, and the resulting structural deformations. Therefore, characterization allows to obtain the main load directions and, consequently, to observe the structural lamellae of the bone disposal, in order to recreate a prosthesis using artificial materials that behave naturally. This thesis will expose a modular system which provides the mechanical characterization of bone in vitro segment, with particular attention to vertebrae, as the current object of study and research in the lab where I did my thesis work. The system will be able to acquire and process all the appropriately conditioned signals of interest for the test, through dedicated hardware and software architecture, with high speed and high reliability. The aim of my thesis is to create a system that can be used as a versatile tool for experimentation and innovation for future tests of the mechanical characterization of biological components, allowing a quantitative and qualitative assessment of the deformation in analysis, regardless of anatomical regions of interest.
Resumo:
Joseph Nicolas Cugnot built the first primitive car in 1769 and approximately one hundred year later the first automotive race took place. Thanks to this, for the first time the aerodynamics principles began to be applied to cars. The aerodynamic study of a car is important to improve the performance on the road, or on the track. It purposely enhances the stability in the turns and increases the maximum velocity. However, it is also useful, decrease the fuel consumption, in order to reduce the pollution. Given that cars are a very complex body, the aerodynamic study cannot be conducted following an analytical method, but it is possible, in general, to choose between two different approaches: the numerical or the experimental one. The results of numerical studies depend on the computers’ potential and on the method use to implement the mathematical model. Today, the best way to perform an aerodynamic study is still experimental, which means that in the first phase of the design process the study is performed in a wind tunnel and in later phases directly on track. The automotive wind tunnels are singular mainly due to the test chamber, which typically contains a ground simulation system. The test chamber can have different types of walls: open walls, closed walls, adaptive walls or slotted walls. The best solution is to use the slotted walls because they minimize the interference between the walls and the streamlines, the interaction between the flow and the environment, and also to contain the overall costs. Furthermore, is necessary minimize the boundary layer at the walls, without accelerating the flow, in order to provide the maximum section of homogeneous flow. This thesis aims at redefining the divergent angle of the Dallara Automobili S.P.A. wind tunnel’s walls, in order to improve the overall homogeneity. To perform this study it was necessary to acquire the pressure data of the boundary layer, than it was created the profile of the boundary layer velocity and, to minimize the experimental errors, it was calculated the displacement thickness. The results obtained shows, even if the instrument used to the experiment was not the best one, that the boundary layer thickness could be minor in case of a low diffusion angle. So it is convenient to perform another experiment with a most sensitive instrument to verified what is the better wall configuration.
Resumo:
La prima parte del nostro studio riguarda la tecnica LAMP (Loop-mediated isothermal amplification), una tecnica di amplificazione isotermica recentemente inventata (Notomi et al., 2000). Essa presenta notevoli vantaggi rispetto alle tradizionali PCR: non necessita di strumentazioni sofisticate come i termociclatori, può essere eseguita da personale non specializzato, è una tecnica altamente sensibile e specifica ed è molto tollerante agli inibitori. Tutte queste caratteristiche fanno sì che essa possa essere utilizzata al di fuori dei laboratori diagnostici, come POCT (Point of care testing), con il vantaggio di non dover gestire la spedizione del campione e di avere in tempi molto brevi risultati paragonabili a quelli ottenuti con la tradizionale PCR. Sono state prese in considerazione malattie infettive sostenute da batteri che richiedono tempi molto lunghi per la coltivazione o che non sono addirittura coltivabili. Sono stati disegnati dei saggi per la diagnosi di patologie virali che necessitano di diagnosi tempestiva. Altri test messi a punto riguardano malattie genetiche del cane e due batteri d’interesse agro-alimentare. Tutte le prove sono state condotte con tecnica real-time per diminuire il rischio di cross-contaminazione pur riuscendo a comprendere in maniera approfondita l’andamento delle reazioni. Infine è stato messo a punto un metodo di visualizzazione colorimetrico utilizzabile con tutti i saggi messi a punto, che svincola completamente la reazione LAMP dall’esecuzione in un laboratorio specializzato. Il secondo capitolo riguarda lo studio dal punto di vista molecolare di un soggetto che presenza totale assenza di attività mieloperossidasica all’analisi di citochimica automatica (ADVIA® 2120 Hematology System). Lo studio è stato condotto attraverso amplificazione e confronto dei prodotti di PCR ottenuti sul soggetto patologico e su due soggetti con fenotipo wild-type. Si è poi provveduto al sequenziamento dei prodotti di PCR su sequenziatore automatico al fine di ricercare la mutazione responsabile della carenza di MPO nel soggetto indicato.
Resumo:
Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.
Resumo:
L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.
Resumo:
The evaluation of the knee joint behavior is fundamental in many applications, such as joint modeling, prosthesis and orthosis design. In-vitro tests are important in order to analyse knee behavior when simulating various loading conditions and studying physiology of the joint. A new test rig for in-vitro evaluation of the knee joint behavior is presented in this paper. It represents the evolution of a previously proposed rig, designed to overcome its principal limitations and to improve its performances. The design procedure and the adopted solution in order to satisfy the specifications are presented here. Thanks to its 6-6 Gough-Stewart parallel manipulator loading system, the rig replicates general loading conditions, like daily actions or clinical tests, on the specimen in a wide range of flexion angles. The restraining actions of knee muscles can be simulated when active actions are simulated. The joint motion in response to the applied loads, guided by passive articular structures and muscles, is permitted by the characteristics of the loading system which is force controlled. The new test rig guarantees visibility so that motion can be measured by an optoelectronic system. Furthermore, the control system of the new test rig allows the estimation of the contribution of the principal leg muscles in guaranteeing the equilibrium of the joint by the system for muscle simulation. Accuracy in positioning is guaranteed by the designed tibia and femur fixation systems,which allow unmounting and remounting the specimen in the same pose. The test rig presented in this paper permits the analysis of the behavior of the knee joint and comparative analysis on the same specimen before and after surgery, in a way to assess the goodness of prostheses or surgical treatments.
Resumo:
Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.
Resumo:
Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.
Resumo:
L’obiettivo del lavoro di tesi è quello di studiare l’integrazione del grafene con i processi tecnologici propri della tecnologia del silicio, per la realizzazione di dispositivi innovativi per la misura delle proprietà termiche e termoelettriche del grafene che sono tra le meno studiate ad oggi. L’attività sperimentale svolta, ha riguardato l’intero processo di produzione, processing ed integrazione tecnologica del grafene. Da una parte è stato messo a punto un processo ottimizzato, partendo da una approfondita ricerca bibliografica, per il trasferimento delle membrane dai substrati di crescita, in rame, a quelli di destinazione, SiO2 e Si3N4, mantenendo la completa compatibilità con i processi della microelettronica del silicio in particolare per quanto riguarda l’eliminazione dei residui metallici dalla sintesi. Dall’altra è stata sviluppata una procedura di patterning micrometrico del grafene, affidabile e riproducibile, e, soprattutto, compatibile con la microelettronica del silicio. Le membrane, cresciute tramite deposizione da fase vapore (Chemical Vapor Deposition), sono state caratterizzate tramite la microscopia elettronica, a scansione e in trasmissione, la microscopia ottica, spettroscopia Raman e microscopia a forza atomica, tecniche che sono state utilizzate per caratterizzare i campioni durante l'intero processo di patterning. Il processo di etching del grafene in ossigeno, realizzato con il plasma cleaner, strumento che nasce per la pulizia di campioni per microscopia elettronica, è stato messo a punto il attraverso una estesa attività di test sia dei parametri di funzionamento dello strumento che del fotoresist da utilizzare. La procedura di patterning micrometrico vera e propria, ha comportato di affrontare diverse classi di problemi, dalla rimozione del fotoresist con soluzioni diverse (soluzione di sviluppo dedicata e/o acetone) alla rimozione dei residui presenti sulle membrane di grafene anche a valle del patterning stesso. La rimozione dei residui tramite acido cloridrico, insieme ad una procedura di annealing a 400°C in aria per la rimozione dei residui del fotoresist polimerico che erano presenti a valle dell’etching in ossigeno, ha permesso di ottenere un patterning del grafene ben definito su scala micrometrica e una ridottissima presenza di residui. Le procedure ottimizzate di trasferimento e di patterning sono il principale avanzamento rispetto allo stato dell’arte. Le metodiche messe a punto in questo lavoro, consentiranno di integrare il grafene direttamente nel processo di micro-fabbricazione di dispositivi per misure termiche e termoelettriche, per i quali quali sono in realizzazione le maschere di processo che rappresentando la naturale conclusione del lavoro di tesi.