383 resultados para firma digitale crittografia asimmetrica gestione delle chiavi Philip Zimmermann
Resumo:
Questa tesi intende presentare una tecnica per la sintesi di immagini realistiche al calcolatore basata sul concetto di particle tracing. Il metodo proposto opera una stima sulla densità locale dei fotoni estendendo il concetto del photon differentials anche alla gestione delle riflessioni diffusive. Si è scelto di implementare il nuovo algoritmo di illuminazione globale all’interno di XCModel come estensione del photon mapping.
Resumo:
Questa tesi tratta del progetto di un impianto fotovoltaico ad isola. Il sistema si compone di diversi blocchi che verranno tutti analizzati nel corso della tesi con particolare enfasi al circuito di controllo e gestione della potenza. Le principali originalità consistono nell'utilizzo di un apposito circuito per l'avviamento dei carichi capacitivi (gestione delle inrush current) e un driver flottante per Cùk con pochi componenti discreti. Si è realizzato il prototipo che viene dettagliatamente descritto all'interno della dissertazione.
Resumo:
Questa tesi ha come scopo l’analisi approfondita dei diversi servizi di push notification per dispositivi mobile e la progettazione di una componente integrabilem in una private cloud per l’inoltro e la gestione delle push notification.
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.
Resumo:
Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.
Resumo:
Le nuove teorie di rete come Software Defined Networking Network Function Virtualization, insieme alle teorie Cognitive/Autonomics consentono di abilitare scenari futuri “disruptive” di rete. Lo scopo di questa tesi è quello di esplorare questi scenari futuri e di capire il ruolo della migrazione di funzioni di rete, sotto forma di Virtual Machine. Si vuole affrontare la migrazione di Virtual Machine dal punto di vista delle performance, ma anche come strumento di gestione delle risorse in uno scenario di rete d'accesso autonomica.
Resumo:
L’affermazione del trasporto containerizzato verificatasi negli ultimi decenni ha determinato una profonda rivoluzione nell’ambito del trasporto marittimo internazionale. L’unitizzazione dei carichi e l’innovazione tecnologica dei mezzi utilizzati per il trasporto e la movimentazione consentono oggi di gestire ingenti volumi di traffico in tempi rapidi e con costi relativamente contenuti. L’utilizzo di unità standard ha inoltre reso possibile lo sviluppo del trasporto intermodale e la realizzazione di catene logistiche complesse. In questa tesi sono state analizzate le problematiche relative alla gestione delle operazioni che vengono svolte all’interno dei terminal container, i nodi fondamentali del trasporto intermodale. In particolare è stato studiato il caso del nuovo Terminal Container del Porto di Ravenna. Trattandosi di un terminal ancora in fase di progettazione, sono state applicate delle metodologie che consentono di effettuare una valutazione preliminare di quelle che potrebbero essere le potenzialità del nuovo terminal. In primo luogo sono stati determinati il throughput potenziale del terminal, in funzione delle aree di stoccaggio e della capacità operativa della banchina, e il numero medio di mezzi necessari alla movimentazione di tale volume di traffico annuo. Poi si è proceduto all’applicazione di modelli analitici specifici per la valutazione delle performance dell’equipment del terminal. I risultati ottenuti sono stati infine utilizzati per lo studio delle interazioni tra i sub-sistemi principali del terminal attraverso la teoria delle code, allo scopo di valutarne il livello di servizio e individuare eventuali criticità.
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
Questa tesi descrive le fasi della progettazione e dell'implementazione di una applicazione mobile per il supporto alla didattica del corso di Programmazione del CdL di Ingegneria e Scienze Informatiche del Campus di Cesena. Il progetto ha lo scopo di mettere a disposizione degli studenti e dei docenti una applicazione per dispositivi Android che permetta di usufruire dei servizi attualmente forniti dal portale ufficiale del corso. Le funzionalità principali consistono nell'accesso ai materiali didattici e nella gestione delle consegne di esercizi propedeutici alla prova finale per quanto concerne gli studenti; ai professori è invece fornita la possibilità di eseguire la correzione degli elaborati e seguirne lo stato di avanzamento. Visto l'elevato numero di utenti che utilizzava il portale esistente tramite tablet e smartphone si è ritenuto necessario lo sviluppo di questo prodotto che possa fornire una user experience ottimizzata per questi dispositivi. Durante la progettazione è stata data particolare importanza all'ottimizzazione delle prestazioni, sfruttando gli strumenti più recenti forniti agli sviluppatori, e alla conformità con i principali design pattern della programmazione per dispositivi Android. Allo scopo di fornire un prodotto utilizzabile dalla maggior parte dell'utenza potenziale, si è inoltre data priorità alla compatibilità con tutti i dispositivi e le versioni del sistema operativo, senza rinunciare ad alcuna funzionalità. Il risultato del lavoro consiste in un prototipo pienamente funzionante e utilizzabile che mira a fornire una base stabile su cui eseguire future evoluzioni.
Resumo:
Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.
Resumo:
Il presente lavoro di tesi affronta il problema della calibrazione dei modelli idrologici afflussi-deflussi tramite un nuovo approccio basato sull'utilizzo di funzioni di utilità. L'approccio classico nella calibrazione dei modelli idrologici prevede la definizione di una misura di discrepanza tra dato osservato e simulato (definizione della funzione obiettivo) per poi procedere ad una sua minimizzazione o massimizzazione. Tradizionalmente, questo processo viene eseguito considerando l'idrogramma nella sua globalità, senza concentrarsi su quegli intervalli dell'idrogramma più utili all'utilizzatore del modello idrologico. Ad esempio, se il modello idrologico viene impiegato in un'ottica di gestione delle risorse idriche, l'utilizzatore sarà interessato ad una “migliore” riproduzione dei deflussi medio/bassi piuttosto che una corretta riproduzione dei colmi di piena. D'altra parte, se l'obiettivo è la riproduzione dei colmi di piena, un modello con alte prestazioni nella riproduzione dei deflussi medi risulta essere di scarsa utilità all'utilizzatore. Calibrando il modello tramite la funzione di utilità più adatta al caso pratico in esame, si può pertanto consentire all'utilizzatore del modello di guidare il processo di calibrazione in modo da essere coerente con il proprio schema decisionale e con le proprie esigenze, e di migliorare le performances del modello (cioè la riproduzione delle portate osservate) negli intervalli di portata per lui di maggiore interesse.
Resumo:
La strategia di diversificazione ha l’obiettivo di sviluppare la presenza competitiva di un’impresa in una molteplicità di settori, non necessariamente correlati. Un’impresa diversificata ha le competenze e il vantaggio di realizzare, quindi, una quota significativa del proprio volume d’affari in settori diversi da quello di origine, o comunque considerato come principale. Ciò che ha suscitato in me maggiore interesse, nell'ambito delle strategie e delle decisioni aziendali e in particolar modo lo studio della diversificazione del mercato, è cercare di capire quali siano le ragioni che conducono le aziende, di grandi e piccole dimensioni, ad ampliare il proprio raggio d’azione. Oggetto di studio e di analisi è il caso IBM – International Business Machine – considerata, a tutt'oggi, una delle più grandi aziende che, da oltre un secolo, opera nel settore informatico. Lo scopo di questo elaborato è cercare di capire quali siano stati in questi lunghi anni e quali tuttora sono gli obiettivi del management aziendale di IBM, che hanno portato ad un lento addio della divisione hardware e puntato su nuove aree di business, cercando di analizzare, nel dettaglio, la strategia di diversificazione attuata. Nel primo capitolo verrà esposta la strategia di diversificazione. Per inquadrare l'ambito di discussione di questo elaborato, verranno esposti i punti fondamentali dell’analisi di settore, la gestione delle imprese diversificate e le decisioni di portafoglio. Il secondo capitolo verterà sull'analisi approfondita dell'azienda, al quale si fa riferimento con una Company Overview che non può prescindere dalla storia della società, passando per le origini e le prime innovazioni in ambito informatico per arrivare fino ai successi di oggi con una particolare focalizzazione al periodo buio attraversato negli anni ‘80. Dopo aver fotografato l’impresa, nella terza e ultima parte, cercherò di ripercorrere, cronologicamente, attraverso i modelli teorici precedentemente esposti, le decisioni manageriali, le strategie e le scelte che hanno portato IBM a diversificare.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.