899 resultados para cuore modello matematico biologia dei sistemi
Resumo:
Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.
Resumo:
Negli ultimi anni si è assistito ad un notevole sviluppo e diffusione dei sistemi di produzione di energia rinnovabile, in particolar modo di sistemi eolici e fotovoltaici. La sempre maggior richiesta di energia e la necessità di far fronte ai problemi di inquinamento sempre più intenso, a causa dei combustibili fossili, ha portato ad una crescita nell’interesse ad adottare queste nuove tecnologie per il sostentamento energetico della popolazione. In seguito all’adozione di tali sistemi si è verificata un’intensificazione della ricerca e dello sviluppo tecnologico in tale ambito al fine di massimizzare la produzione dell’energia. Un ruolo chiave nella gestione dell’energia ed in particolar modo l’interfacciamento del sistema di produzione con il carico è svolto elettronica di potenza. L’obiettivo principale della ricerca in tale ambito consiste nella individuazione di nuove tecnologie che permettano un incremento dell’efficienza di conversione anche di soli pochi punti percentuale. L’attività di tesi, svolta presso il LEMAD (Laboratorio di Macchine e Azionamenti del Dipartimento DEI), è stata quindi focalizzata nella progettazione e in seguito realizzazione di un convertitore per applicazioni fotovoltaiche. L’interesse nei confronti delle nuovetecnologie ha portato ad una scelta innovativa per quanto riguarda la configurazione dell’inverter costituente il convertitore. Tale configurazione, che prende il nome di Full Bridge DC Bypass o più semplicemente ponte H6, ha permesso la realizzazione di un convertitore compatto poiché non necessitante di un trasformatore per garantire l’isolamento tra i moduli PV e la rete. Inoltre l’adozione di due switch aggiuntivi rispetto ad un comune ponte H ha garantito una notevole riduzione delle perdite dovute alla tensione di modo comune(CMV)con conseguente incremento dell’efficienza. La ricerca di nuove tecnologie non è stata concentrata solamente nello studio di nuove configurazioni di inverter ma anche nell’individuazione di innovativi dispositivi di potenza. In particolar modo il silicon carbide o SiC ha dimostrato in diverse occasioni di essere un materiale superiore al silicio nelle applicazioni di potenza. Sono stati quindi realizzati due convertitori utilizzanti due differenti dispositivi di potenza (MOSFET in SiC e IGBT in Si)in modo tale da determinare le diverse prestazioni. Un ulteriore studio è stato svolto sulle tecniche di modulazione al fine di valutarne le differenti caratteristiche ed individuare quella più conveniente nella conversione utilizzante il ponte H6.
Resumo:
La comprensione delle proprietà e delle meccaniche di funzionamento dei sistemi complessi e dinamici che ci circondano è uno degli obiettivi principali delle discipline ingegneristiche e scientifiche. Lo sviluppo nel campo dell'Intelligenza Artificiale ha permesso la creazione di entità robotiche sempre più intelligenti, in grado di manifestare comportamenti notevoli e di raggiungere gli obiettivi prefissati: la progettazione di software di controllo ha velocemente ricevuto una crescente responsabilità. Questo elaborato si propone di inquadrare in generale la situazione della progettazione di software di controllo robotici, focalizzandosi in particolare sulle tecniche di progettazione automatica di programmi per robot: dopo aver inquadrato il background su cui si basa la progettazione automatica ed aver mostrato una panoramica dei principali metodi di progettazione diretta, vengono elencate e spiegate le tecniche più utilizzate ed interessanti della progettazione automatica di programmi per robot.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
Negli ultimi anni il tema del risparmio energetico nei sistemi elettronici ha suscitato sempre maggiore interesse, poiché grazie allo sviluppo tecnologico è stato possibile creare dispositivi in grado di operare a bassa potenza. Sempre più applicazioni elettroniche richiedono di funzionare tramite fonti di energia limitata, come per esempio le batterie, con un’autonomia in alcuni casi anche di 15-20 anni, questo è il motivo per il quale è diventato fondamentale riuscire a progettare sistemi elettronici in grado di gestire in modo intelligente l’energia a disposizione. L’utilizzo di batterie però spesso richiede costi aggiuntivi, come per esempio il semplice cambio, che in alcune situazioni potrebbe essere difficoltoso poiché il sistema elettronico si potrebbe trovare in luoghi difficilmente raggiungibili dall’uomo; ecco perché negli ultimi anni il tema della raccolta di energia o anche chiamato Energy Harvesting, sta suscitando sempre più interesse. Con l’Energy Harvesting si possono catturare ed accumulare per poi riutilizzare, piccole quantità di energia presenti nell’ambiente. Attraverso sistemi di Energy Harvesting è quindi diventato possibile trasformare energia cinetica, differenze di temperatura, effetto piezoelettrico, energia solare ecc.. in energia elettrica che può essere utilizzata per alimentare semplici applicazioni elettroniche, nel caso di questa tesi un nodo sensore wireless. I vantaggi dei sistemi di Energy Harvesting rispetto a sistemi alimentati a batteria sono i seguenti: - Costi di manutenzione ridotti; - Fonte di energia idealmente inesauribile e con un impatto ambientale negativo nullo. La potenza fornita da sistemi di Energy Harvesting si aggira intorno a qualche centinaia di uW, perciò è chiaro che il sistema da alimentare deve essere ottimizzato il più possibile dal punto di vista energetico, per questo motivo il progettista si deve impegnare per evitare qualsiasi spreco energetico e dovrà utilizzare dispositivi che permettono una gestione intelligente dell’energia a disposizione, al fine di ottenere la migliore efficienza possibile.
Resumo:
Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.
Resumo:
Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.
Resumo:
In adroterapia vengono usati fasci di ioni (protoni e ioni carbonio) per il trattamento di tumori profondi; queste particelle possiedono molti vantaggi rispetto ai fotoni utilizzati nella radioterapia convenzionale. Il profilo dose-profondità di questi ioni è caratterizzato da una bassa dose nel canale di entrata e da un massimo molto pronunciato (picco di Bragg) nei pressi della fine del loro percorso: poiché l’ascissa di tale massimo dipende dall’energia del fascio, essa può essere cambiata semplicemente variando tale parametro. Inoltre, grazie alla carica elettrica posseduta da queste particelle, è possibile controllare sempre meglio anche le restanti due dimensioni riuscendo ad indirizzare il fascio sul target con precisione notevole riuscendo così a risparmiare i tessuti sani e le strutture critiche del nostro organismo. Mentre la protonterapia, grazie ai quasi cinquanta centri attualmente in funzione, sta diventando uno dei trattamenti standard per la cura dei tumori più difficili, la terapia con ioni carbonio è ancora ristretta a meno di dieci strutture, una delle quali è il CNAO con sede a Pavia. L’utilizzo di ioni carbonio presenta ulteriori vantaggi rispetto ai protoni, tra i quali un picco di Bragg con una larghezza minore e un diverso effetto radiobiologico: ciò rende gli ioni carbonio l’unica opzione praticabile nel trattamento di tumori radioresistenti. Questo lavoro è una rassegna dei sistemi e dei metodi utilizzati in adroterapia e del loro sviluppo: se ne evince che l’ostacolo maggiore alla diffusione di questa pratica è rappresentato dall’elevato costo del trattamento. La Sezione di Bologna dell’INFN e il Dipartimento di Fisica e Astronomia dell’Università di Bologna possiedono competenze relativamente a diverse tecnologie avanzate, tra cui il progetto per acceleratori "tascabili", che potrebbero ridurre drasticamente il costo della terapia. In tale ambito, la presente tesi costituisce uno studio preliminare alla costituzione di un gruppo di ricerca sull’adroterapia a Bologna in piena collaborazione con altre Sezioni dell’INFN, con le Divisioni di Radioterapia ospedaliere e con altre realtà nazionali ed internazionali.
Resumo:
La tesi ha lo scopo di indagare le tecnologie disponibili per la realizzazione di linguaggi di programmazione e linguaggi domain specific in ambiente Java. In particolare, vengono proposti e analizzati tre strumenti presenti sul mercato: JavaCC, ANTLR e Xtext. Al termine dell’elaborato, il lettore dovrebbe avere un’idea generale dei principali meccanismi e sistemi utilizzati (come lexer, parser, AST, parse trees, etc.), oltre che del funzionamento dei tre tools presentati. Inoltre, si vogliono individuare vantaggi e svantaggi di ciascuno strumento attraverso un’analisi delle funzionalità offerte, così da fornire un giudizio critico per la scelta e la valutazione dei sistemi da utilizzare.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Lo scopo della tesi è la realizzazione di un circuito PCB di un nodo sensore wireless ultra low power per il monitoraggio della temperatura. Una volta individuati tutti i componenti si è proseguito con l'implementazione del layout del circuito, che poi potrà eventualmente essere posto in produzione
Resumo:
Il software Smart-M3, ereditato dal progetto europeo SOFIA, conclusosi nel 2011, permette di creare una piattaforma d'interoperabilità indipendente dal tipo di dispositivi e dal loro dominio di utilizzo e che miri a fornire un Web Semantico di informazioni condivisibili fra entità software e dispositivi, creando ambienti intelligenti e collegamenti tra il mondo reale e virtuale. Questo è un campo in continua ascesa grazie al progressivo e regolare sviluppo sia della tecnologia, nell'ambito della miniaturizzazione dei dispositivi, che delle potenzialità dei sistemi embedded. Questi sistemi permettono, tramite l'uso sempre maggiore di sensori e attuatori, l'elaborazione delle informazioni provenienti dall’esterno. È evidente, come un software di tale portata, possa avere una molteplicità di applicazioni, alcune delle quali, nell’ambito della Biomedica, può esprimersi nella telemedicina e nei sistemi e-Heath. Per e-Health si intende infatti l’utilizzo di strumenti basati sulle tecnologie dell'informazione e della comunicazione, per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita. Obiettivo di questa tesi è fornire un set di dati che mirino ad ottimizzare e perfezionare i criteri nella scelta applicativa di tali strutture. Misureremo prestazioni e capacità di svolgere più o meno velocemente, precisamente ed accuratamente, un particolare compito per cui tale software è stato progettato. Ciò si costruisce sull’esecuzione di un benchmark su diverse implementazioni di Smart-M3 ed in particolare sul componente centrale denominato SIB (Semantic Information Broker).
Resumo:
Questo progetto è stato ideato con lo scopo di implementare e simulare un algoritmo di stima della posizione di una sorgente sonora. E' stato scelto di utilizzare MATLAB come strumento di sviluppo. Tutti i dispositivi hardware utilizzati sono compatibili, interfacciabili tra loro ed ampiamente descritti all'interno di questo elaborato.