927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
Lo studio riguarda la caratterizzazione geochimica dei sedimenti del sito Caretti, situato a est del comune di Ferrara, interessato da un forte caso di contaminazione dovuto alla presenza di due discariche municipali non controllate risalenti agli anni '60-'70. L'obiettivo del lavoro è quello di valutare la geochimica dei sedimenti e delle acque prelevate nel sito al fine di individuare eventuali relazioni tra il chimismo delle due matrici. Inoltre, i dati dell' analisi dei sedimenti sono stati confrontati con quelli di letteratura per delinearne aspetti di provenienza. I dati geochimici dei sedimenti sono stati ottenuti mediante fluorescenza a raggi X (XRF) e sono stati elaborati graficamente e statisticamente, mediante software di analisi statistica (GCDkit). La composizione geochimica delle acque è stata ottenuta mediante tecniche di cromatografia ionica e spettroscopia di assorbimento atomico. La geochimica dei sedimenti ha evidenziato che la composizione chimica mostra associazioni di elementi legate a una componente tessiturale del sedimento. In particolare si rilevano concentrazioni elevate di Fe2O3, Al2O3, TiO2, Cr, Ni, e V in sedimenti a granulometria fine, a differenza delle concentrazioni di SiO2 e Na2O elevate in sedimenti sabbiosi. La distribuzione statistica degli elementi nei sedimenti e nelle acque ha permesso di effettuare una valutazione delle caratteristiche geochimiche dei principali corpi idrogeologici. La caratterizzazione geochimica ha fornito, inoltre, indicazioni sull'origine dei sedimenti. Cromo e Nichel, tra gli elementi in traccia, sono particolarmente efficaci nella valutazione della provenienza permettendo, all'interno del sito Caretti, una distinzione tra popolazioni di provenienza appenninica (bassi valori Cr-Ni) e padana (alti valori Cr-Ni).
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
La curva di durata di lungo periodo (POR) è uno strumento grafico molto efficace che mette in evidenza la relazione fra intensità e frequenza delle portate osservate in un determinato intervallo temporale. Essa è ricavata dall'idrogramma dei deflussi, ma presenta il problema della perdita di informazioni relative alla variabilità annuale e stagionali delle portate. Per tal motivo si è reso necessario l'utilizzo di due nuove interpretazioni delle curve di durate: le curve di durata annuali (alle quali può essere associato il concetto di percentile e quindi di probabilità di superamento di un particolare valore di portata) e le curve a base stagionale. La costruzione di tali curve, come nel caso delle POR complessive, è ostacolata dall'insufficienza di dati di portata, per cui sono utilizzate, a tale scopo, procedure di stima basate sulla regionalizzazione dei deflussi. Tra di esse è stato analizzata la tecnica geostatistica del Top-kriging applicata all'indice TND che sintetizza l'intera curva (Pugliese et al., 2014) nella ricostruzione, in cross-validazione, delle curve di durata annuali e stagionali di 182 bacini della regione sud-orientale degli Stati Uniti.
Resumo:
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
Questo studio è stato sviluppato attraverso il monitoraggio idrogeologico di sorgenti e piezometri al fine di individuare il rischio di eventuali influenze causate dai lavori di ampliamento a 4 corsie di un tratto della S.S. 223 di Paganico (tratta Grosseto – Siena ) che prevede la costruzione di nuovi tratti di galleria ubicati nell’area. Il tratto di interesse per la presente tesi va dal km 30+040 al km 41+600 della tratta Siena-Grosseto, corrispondente ai lotti 5, 6, 7 e 8. I lavori riguardano i comuni di Monticiano (provincia di Siena) e Civitella Paganico (provincia di Grosseto), lungo la valle del Fiume Merse in un’area ad elevato pregio ambientale presso la confluenza con il Torrente Farma. Le attività di cantiere nel tratto interessato sono iniziate nel Dicembre 2013; si stima che le opere saranno completate per Luglio 2015. Il lavoro di tesi sul campo è stato svolto con il supporto tecnico della società di consulenza geo-ingegneristica di Bologna Studio Mattioli s.r.l. la quale ha ricevuto l’incarico del monitoraggio idrogeologico dal Gruppo Strabag che si occupa di costruzione di grandi infrastrutture. Il lavoro sul campo è consistito in un’attività di monitoraggio idrogeologico, anche tramite sensori in continuo, per più di 1 anno idrologico (novembre 2013- Gennaio 2015), su sorgenti e piezometri captanti acque sia fredde che termali. Il monitoraggio è stato basato sia su un approccio in discontinuo che in continuo. I punti di monitoraggio sono situati presso la località dei Bagni di Petriolo a cavallo tra la provincia di Siena e di Grosseto. I dati relativi alle sorgenti raccolti mensilmente sono la portata ed i parametri fisico-chimici in situ. Per piezometri i dati raccolti mensilmente sono il livello piezometrico ed i medesimi dati fisico-chimici raccolti per le sorgenti. I dati raccolti sono serviti a formulare il modello idrogeologico concettuale del sito ed a valutare le potenzialità d’interferenza idrogeologica delle gallerie sul sistema idrico sotterraneo.
Resumo:
Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.
Resumo:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.
Resumo:
La presente tesi si propone di determinare quale sia la situazione del mercato italiano e spagnolo sui pneumatici fuori uso (PFU) e quale sia il migliore metodo di costruzione degli elementi elastici da PFU. I risultati dell'analisi di mercato mostrano che l'introduzione del principio di responsabilità del produttore, introdotto in Italia solo nel 2011, sta portando ottimi risultati, e il problema di raccolta degli PFU è in via di risoluzione. Gli studi dinamici documentano che gli under rail paid (URP) costruiti da PFU rispettano tutte le necessità tecniche per l'utilizzo nelle linee ferroviarie sia convenzionali che ad alta velocità. Invece il Life Cycle Assessment (LCA) dimostra che il processo di costruzione degli URP da PFU decostruiti impatta meno rispetto a quello dei PFU triturati. I risultati del Life Cycle Cost (LCC) fanno propendere per un utilizzo degli URP nelle vie ferroviarie in quanto si ha una diminuzione dei costi di manutenzione.
Resumo:
Questa tesi descrive lo sviluppo di un OECT (Organic Eletrochemical Transistor) basato su un polimero conduttore (PEDOT:PSS) stampato su tessuto che può essere utilizzato come sensore fisico e chimico. Il lavoro di tesi si posiziona all’interno della Wearable Technology ossia il mercato emergente dei dispositivi indossabili. Essi sono caratterizzati da innumerevoli ambiti di applicazione tra i quali troviamo le varie forme di pagamento digitale, la gestione della salute e del fitness, dell'Entertainment e l’utilizzo nel mondo della moda. Questa ricerca nello specifico mostra come tali transistor, quando utilizzati come sensori chimici, possano essere impiegati per rivelare e dosare composti redox attivi quali acido ascorbico, adrenalina e dopamina. Tali sostanze sono state scelte per l’importanza che rivestono nel metabolismo umano e la loro presenza in diversi fluidi biologici, quali sudore o sangue, può essere utile per il monitoraggio, la diagnostica e la prevenzione di diverse malattie. I sensori possono essere fabbricati mediante semplici processi di stampa su un tessuto indossabile permettendo così di monitorare tali fattori in tempo reale e con un ingombro estremamente ridotto. Il tempo di vita del dispositivo tessile è stata valutata sottoponendolo a diversi cicli di lavaggio.
Resumo:
L’estrema importanza degli aspetti neurologici che riguardano la vita dell’uomo, unitamente all’elevato grado di invalidità che le malattie del sistema nervoso sono in grado di provocare, ha portato nel corso del tempo gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. Il sempre più frequente ricorso alle cure farmacologiche e alla psicoterapia ha saputo ben presto però sollevare numerose perplessità in merito all’efficacia di tali approcci. È a partire da questi presupposti che è stato possibile portare avanti nuovi studi sulla tDCS, un particolare tipo di apparecchiatura biomedicale basata sul concetto di elettrostimolazione cerebrale. Questo lavoro si propone di descrivere la capacità della tDCS di intervenire direttamente sui meccanismi che comunemente si verificano all’interno del cervello umano tramite il rilascio di corrente, nonché i numerosi miglioramenti che sono stati rilevati in seguito al suo utilizzo su soggetti umani. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di manifestare relativamente ai processi cognitivi, partendo dagli aspetti che riguardano il linguaggio, passando attraverso quelli propri della memoria e della conoscenza, fino ad arrivare a rivestire un ruolo di primo piano anche all’interno delle sfaccettature tipiche degli stati umorali.
Resumo:
Il software Smart-M3, ereditato dal progetto europeo SOFIA, conclusosi nel 2011, permette di creare una piattaforma d'interoperabilità indipendente dal tipo di dispositivi e dal loro dominio di utilizzo e che miri a fornire un Web Semantico di informazioni condivisibili fra entità software e dispositivi, creando ambienti intelligenti e collegamenti tra il mondo reale e virtuale. Questo è un campo in continua ascesa grazie al progressivo e regolare sviluppo sia della tecnologia, nell'ambito della miniaturizzazione dei dispositivi, che delle potenzialità dei sistemi embedded. Questi sistemi permettono, tramite l'uso sempre maggiore di sensori e attuatori, l'elaborazione delle informazioni provenienti dall’esterno. È evidente, come un software di tale portata, possa avere una molteplicità di applicazioni, alcune delle quali, nell’ambito della Biomedica, può esprimersi nella telemedicina e nei sistemi e-Heath. Per e-Health si intende infatti l’utilizzo di strumenti basati sulle tecnologie dell'informazione e della comunicazione, per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita. Obiettivo di questa tesi è fornire un set di dati che mirino ad ottimizzare e perfezionare i criteri nella scelta applicativa di tali strutture. Misureremo prestazioni e capacità di svolgere più o meno velocemente, precisamente ed accuratamente, un particolare compito per cui tale software è stato progettato. Ciò si costruisce sull’esecuzione di un benchmark su diverse implementazioni di Smart-M3 ed in particolare sul componente centrale denominato SIB (Semantic Information Broker).