999 resultados para intelligenza artificiale, test di Turing


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The evaluation of the knee joint behavior is fundamental in many applications, such as joint modeling, prosthesis and orthosis design. In-vitro tests are important in order to analyse knee behavior when simulating various loading conditions and studying physiology of the joint. A new test rig for in-vitro evaluation of the knee joint behavior is presented in this paper. It represents the evolution of a previously proposed rig, designed to overcome its principal limitations and to improve its performances. The design procedure and the adopted solution in order to satisfy the specifications are presented here. Thanks to its 6-6 Gough-Stewart parallel manipulator loading system, the rig replicates general loading conditions, like daily actions or clinical tests, on the specimen in a wide range of flexion angles. The restraining actions of knee muscles can be simulated when active actions are simulated. The joint motion in response to the applied loads, guided by passive articular structures and muscles, is permitted by the characteristics of the loading system which is force controlled. The new test rig guarantees visibility so that motion can be measured by an optoelectronic system. Furthermore, the control system of the new test rig allows the estimation of the contribution of the principal leg muscles in guaranteeing the equilibrium of the joint by the system for muscle simulation. Accuracy in positioning is guaranteed by the designed tibia and femur fixation systems,which allow unmounting and remounting the specimen in the same pose. The test rig presented in this paper permits the analysis of the behavior of the knee joint and comparative analysis on the same specimen before and after surgery, in a way to assess the goodness of prostheses or surgical treatments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del lavoro è quello di legare tra di loro due aspetti che storicamente sono sempre stati scollegati. Il primo è il lungo dibattito sul tema “oltre il PIL”, che prosegue ininterrottamente da circa mezzo secolo. Il secondo riguarda l’utilizzo dei sistemi di misurazione e valutazione della performance nel settore pubblico italiano. Si illustra l’evoluzione del dibattito sul PIL facendo un excursus storico del pensiero critico che si è sviluppato nel corso di circa cinquanta anni analizzando le ragioni assunte dagli studiosi per confutare l’utilizzo del PIL quale misura universale del benessere. Cogliendo questa suggestione l’Istat, in collaborazione con il CNEL, ha avviato un progetto per individuare nuovi indicatori da affiancare al PIL, in grado di misurare il livello non solo della crescita economica, ma anche del benessere sociale e sostenibile, con l’analisi degli indicatori riferiti a 12 domini di benessere individuati. Al progetto Istat-CNEL si è affiancato il progetto UrBES, promosso dall’Istat e dal Coordinamento dei sindaci metropolitani dell’ANCI, che hanno costituito una rete di città metropolitane per sperimentare la misurazione e il confronto sulla base di indicatori di benessere urbano equo e sostenibile, facendo proprio un progetto del Comune di Bologna e di Laboratorio Urbano (Centro di documentazione, ricerca e proposta sulle città), che ha sottoposto a differenti target un questionario on line, i cui risultati, con riferimento alle risposte fornite alle domande aperte, sono stati elaborati attraverso l’utilizzo di Taltac, un software per l’analisi dei testi, al fine di individuare i “profili” dei rispondenti, associando i risultati dell’elaborazione alle variabili strutturali del questionario. Nell’ultima parte i servizi e progetti erogati dal comune di Bologna sono stati associati alle dimensioni UrBES, per valutare l’impatto delle politiche pubbliche sulla qualità della vita e sul benessere dei cittadini, indicando le criticità legate alla mancanza di dati adeguati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del lavoro di tesi è quello di studiare l’integrazione del grafene con i processi tecnologici propri della tecnologia del silicio, per la realizzazione di dispositivi innovativi per la misura delle proprietà termiche e termoelettriche del grafene che sono tra le meno studiate ad oggi. L’attività sperimentale svolta, ha riguardato l’intero processo di produzione, processing ed integrazione tecnologica del grafene. Da una parte è stato messo a punto un processo ottimizzato, partendo da una approfondita ricerca bibliografica, per il trasferimento delle membrane dai substrati di crescita, in rame, a quelli di destinazione, SiO2 e Si3N4, mantenendo la completa compatibilità con i processi della microelettronica del silicio in particolare per quanto riguarda l’eliminazione dei residui metallici dalla sintesi. Dall’altra è stata sviluppata una procedura di patterning micrometrico del grafene, affidabile e riproducibile, e, soprattutto, compatibile con la microelettronica del silicio. Le membrane, cresciute tramite deposizione da fase vapore (Chemical Vapor Deposition), sono state caratterizzate tramite la microscopia elettronica, a scansione e in trasmissione, la microscopia ottica, spettroscopia Raman e microscopia a forza atomica, tecniche che sono state utilizzate per caratterizzare i campioni durante l'intero processo di patterning. Il processo di etching del grafene in ossigeno, realizzato con il plasma cleaner, strumento che nasce per la pulizia di campioni per microscopia elettronica, è stato messo a punto il attraverso una estesa attività di test sia dei parametri di funzionamento dello strumento che del fotoresist da utilizzare. La procedura di patterning micrometrico vera e propria, ha comportato di affrontare diverse classi di problemi, dalla rimozione del fotoresist con soluzioni diverse (soluzione di sviluppo dedicata e/o acetone) alla rimozione dei residui presenti sulle membrane di grafene anche a valle del patterning stesso. La rimozione dei residui tramite acido cloridrico, insieme ad una procedura di annealing a 400°C in aria per la rimozione dei residui del fotoresist polimerico che erano presenti a valle dell’etching in ossigeno, ha permesso di ottenere un patterning del grafene ben definito su scala micrometrica e una ridottissima presenza di residui. Le procedure ottimizzate di trasferimento e di patterning sono il principale avanzamento rispetto allo stato dell’arte. Le metodiche messe a punto in questo lavoro, consentiranno di integrare il grafene direttamente nel processo di micro-fabbricazione di dispositivi per misure termiche e termoelettriche, per i quali quali sono in realizzazione le maschere di processo che rappresentando la naturale conclusione del lavoro di tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Epoxy resins are very diffused materials due to their high added value deriving from high mechanical proprieties and thermal resistance; for this reason they are widely used both as metallic coatings in aerospace and in food packaging. However, their preparation uses dangerous reagents like bisphenol A and epichlorohydrin respectively classified as suspected of causing damage to fertility and to be carcinogen. Therefore, to satisfy the ever-growing attention to environmental problems and human safeness, we are considering alternative “green” processes through the use of reagents obtained as by-products from other processes and mild experimental conditions, and also economically sustainable and attractive for industries. Following previous results, we carried out the reaction leading to the formation of diphenolic acid (DPA), its allylation and the following epoxidation of the double bonds, all in aqueous solvent. In a second step the obtained product were cross-linked at high temperature with and without the use of hardeners. Then, on the obtained resin, some tests were performed like release in aqueous solution, scratch test and DSC analysis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi compilativa prende in esame la cartilagine, partendo dalla composizione dei suoi diversi tipi rappresentati nel corpo umano e delle funzioni qui svolte, per descrivere i metodi utilizzati per riprodurla artificialmente mediante cellule staminali, fattori di crescita e scaffold dedicati coltivati in ambiente controllato. La cartilagine è un tessuto molto particolare perché, diversamente dagli altri tessuti, non possiede una rete di capillari e quindi riceve un limitati apporto di ossigeno e sostanze nutritive, che spiega la sua poverissima capacità intrinseca di riparazione. La cartilagine è però un tessuto soggetto a numerosi stress di vario tipo e quindi è soggetta a traumi che possono essere di natura sportiva o accidentale (soprattutto la cartilagine di tipo articolare) ed è anche colpita da malattie degenerative. Questo ha stimolato gli studi che intendono ingegnerizzare un tessuto artificiale in grado di aumentare la capacità di riparare la zona colpita. In quest’ottica, vengono attivamente condotti esperimenti in grado di definire protocolli che inducano cellule staminali al differenziamento in cellule di tipo cartilagineo. Tali cellule, seminate su supporti (scaffolds) 3D biocompatibili di diversa natura, naturali o sintetici, eventualmente bioattivi, possono essere coltivate in ambienti dedicati, detti bioreattori, che utilizzino stimoli fisici (p. es. vibrazionali, microgravità, ultrasonici, regolazione della tensione di ossigeno, sforzi di taglio, compressione dinamica e compressione idrostatica ciclica) che si sono dimostrati utili per indurre l’appropriato fenotipo cellulare, valutabile attraverso una batteria di approcci di misura morfologica e funzionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’industria enologica oggigiorno propone numerosi modi per sigillare le bottiglie in alternativa ai tappi di sughero: tappi sintetici, tappi a vite, tappi a corona. Tuttavia si conosce la preferenza del consumatore medio per il sughero. I motivi sono molteplici: il sughero restituisce un'immagine di qualità del vino, esprime la tradizione ed è un materiale vivo e naturale, così come il vino. La naturalità del sughero però comporta dei rischi. Ad esempio si stima in 10 miliardi di dollari a livello mondiale la perdita economica dovuta al "sentore di tappo" o "cork taint". Recenti ricerche attribuiscono la responsabilità di tale difetto a composti chimici che migrano dal sughero al vino. Innovazione e tradizione si sono incontrate nell'ideazione della "tecnologia a membrana" o "membrane technology". Essa consiste nell'isolare le teste dei tappi con delle pellicole multistrato per non far diffondere nel vino alcun tipo di agente contaminante. In questo studio si espone in dettaglio un metodo per misurare l'adesione di film multistrato polimerici – strato esterno in polietilene – su tappi di sughero monopezzo. I tappi già rivestiti sono stati forniti da un'azienda del settore senza alcuna specifica di fabbricazione. In particolare la fase di trazione è stata ideata in analogia alla prova meccanica nota come pull-off test, usata nell'ambito dell'ingegneria edile. La bontà dell'adesione è indagata dal punto di vista della fisica dei materiali. Per le misurazioni si è utilizzato il Dynamic Mechanical Analyser (DMA), modello Q800, che si trova presso il laboratorio CIRI-MAM ospitato dal Dipartimento di Fisica e Astronomia di Bologna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa tesi è presentare un progetto per la realizzazione di una piattaforma DBAAS per il database Jackrabbit. Per piattaforma DBAAS si intende un sistema in grado di offrire ai clienti un database su richiesta (DataBase As A Service), e di amministrare automaticamente i database per conto dei clienti. Il progetto viene realizzato in un primo momento tramite un prototipo della piattaforma, in cui vengono effettuati test intensivi per controllare ogni funzionalità della piattaforma. Il prototipo viene sviluppato in un singolo host, nel quale è possibile simulare tutte le operazioni base della piattaforma DBAAS, come se fosse il sistema finale. In un secondo momento, il progetto sarà realizzato nella sua versione finale, con tutto l'hardware necessario a garantire un servizio ottimale. Questa tesi contiene la base per realizzare il sistema finale, che può essere realizzato in modi diversi a seconda delle scelte che farà il progettista. Ad esempio, è possibile comprare tutto l'hardware necessario e implementare la piattaforma DBAAS in-house, oppure si può scegliere di affidare tutta la gestione hardware ad un servizio di hosting.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni uno dei settori di ricerca più interessanti in ambito tecnologico è sicuramente quello dell'elettronica organica. Lo sviluppo è spinto dai vantaggi che portano i dispositivi basati su materiali organici: bassi costi di produzione, facilità di fabbricazione su grandi aree e flessibilità. In questa tesi andiamo ad esaminare un transistor organico a effetto di campo (OFET) dal punto di vista macroscopico e microscopico, cercando di mettere in relazione le sue caratteristiche morfologiche ed elettriche. Il dispositivo sottoposto ai test è un OFET realizzato con TIPS-pentacene come semiconduttore. Dai risultati ottenuti si evince che le prestazioni elettriche del transistor sono fortemente legate alla microstruttura assunta dal materiale organico durante la deposizione. I primi due capitoli illustrano i principi di funzionamento degli OFET e la tecnica SPM (scanning probe microscopy) utilizzata per l'indagine microscopica. Il terzo e quarto capitolo descrivono rispettivamente gli apparati sperimentali e i risultati ottenuti dall'indagine su due aree diverse del dispositivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondidi provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondidi provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.