581 resultados para monitoraggio sorgenti interferenza idrogeologica galleria
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Lo studio dell'ottica si incentra sull'indagine della natura della luce, delle sue proprietà e delle leggi che ne regolano i fenomeni fisici. Si possono, in complessivo, identificare tre branche: l'ottica geometrica, l'ottica ondulatoria e l'ottica quantistica. Quest'ultima esula dalla presente trattazione, che piuttosto si incentra sull'aspetto geometrico ed ondulatorio della radiazione luminosa. Con l'ottica geometrica viene identificato lo studio della luce come propagazione rettilinea di raggi luminosi. Essa include lo studio degli specchi e delle lenti, di particolare interesse per le applicazioni nella strumentazione astrofisica. All'interno del primo capitolo, dunque, sono enunciate le principali leggi che definiscono la propagazione rettilinea della luce, la sua riflessione contro una superficie o la sua rifrazione attraverso due mezzi differenti. L'ottica geometrica, in effettivo, consiste in un caso limite della più generica trattazione fornita dall'ottica ondulatoria. La condizione che demarca la possibilità di approssimare la trattazione nell'ambito geometrico, è definita dalla richiesta che la lunghezza d'onda della radiazione in esame sia di molto inferiore delle dimensioni lineari dell'ostacolo con cui interagisce. Qualora tale condizione non fosse soddisfatta, la considerazione della natura ondulatoria della luce non sarebbe più trascurabile. Nel secondo capitolo dell'elaborato, dunque, vengono presi in esame il modello ondulatorio della radiazione elettromagnetica ed alcuni fenomeni fisici che ne avvalorano la fondatezza; in particolare i fenomeni dell'interferenza e della diffrazione. Infine, nel terzo ed ultimo capitolo, sono affrontati alcuni esempi di applicazioni astrofisiche, sia nell'ambito dell'ottica geometrica che nell'ambito dell'ottica ondulatoria.
Resumo:
La forma spettrale dell’X-ray background richiede l’esistenza di un grande numero di AGN mediamente oscurati, oltre alla presenza di AGN fortemente oscurati, la cui densità di colonna supera il limite Compton (Nh>10^24 cm^(-2)). A causa della loro natura, questi oggetti risultano di difficile osservazione, per cui è necessario adottare un approccio multi-banda per riuscire a rivelarli. In questo lavoro di tesi abbiamo studiato 29 sorgenti osservate nel CDF-S e 10 nel CDF-N a 0.07
Resumo:
Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.
Resumo:
Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.
Resumo:
Il monitoraggio della glicemia risulta fondamentale per pazienti diabetici, poiché rappresenta il punto di partenza per la cura della malattia. In particolare risulta quindi estremamente utile un automonitoraggio della glicemia, in quanto, essendo il diabete una malattia cronica, deve essere costantemente tenuta sotto controllo. Questo ha portato allo sviluppo di strumenti di analisi che fossero principalmente semplici da usare, per permettere a chiunque, anche senza alcuna conoscenza in materia, di poter effettuare test glicemici, e quindi che fossero pratici, non ingombranti e di rapido utilizzo.
Resumo:
La linea ferroviaria Bologna-Porretta mostra evidenze deformative nel tratto ad EST della stazione di Silla, già da metà del secolo scorso. Il fenomeno si manifesta in una zona delimitata a SUD da un grande deposito di frana quiescente e a NORD dal corso del fiume Reno. In questo contesto, è stato possibile seguire le indagini geognostiche commissionate da RFI, finalizzate alla caratterizzazione geologico-tecnica del problema deformativo e all’installazione di alcuni strumenti di monitoraggio. L’obiettivo principale è quello di ricostruire le dinamiche dei processi in atto, valutando quale sia la causa primaria del cedimento del rilevato ferroviario. Il lavoro ha inizialmente previsto una fase di attività sul campo. Successivamente, prove di laboratorio sono state svolte su cinque campioni rimaneggiati ottenuti da spezzoni di carota. Le stratigrafie di sondaggio, le osservazioni di campo e i risultati delle prove di laboratorio sono stati elaborati assieme ad altri dati a disposizione, quali dati di interferometria radar, dati di monitoraggio e risultati di prove di laboratorio esterne, così da produrre il modello geologico-tecnico dell’area. Nel modello, la superficie di scorrimento si trova a circa 10 m di profondità, coerentemente con le misure degli inclinometri, mentre la falda oscilla tra i 2,0 m e gli 0,5 m di profondità da piano campagna. Infine, le analisi di stabilità sono state divise in una fase di back-analysis e in una fase previsionale che ipotizzasse alcuni interventi di sistemazione. Dal lavoro è stato possibile concludere che il versante destro del fiume Reno è attualmente soggetto a movimenti gravitativi. Le simulazioni effettuate hanno portato a determinare due meccanismi di rottura plausibili. Una batteria di dreni suborizzontali permetterebbe di stabilizzare le superfici di scorrimento critiche con un buon incremento del Fattore di Sicurezza, mentre trincee drenanti e pali rappresentano soluzioni meno efficaci.
Resumo:
Il lavoro di tesi è basato sull'analisi chimica e radiometrica dei suoli di Terni. L'indagine ha interessato lo studio dell'impatto antropico associato alle principali sorgenti antropogeniche presenti nell'area di studio
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.
Resumo:
I movimenti lenti delle colate in terra sono una caratteristica geomorfologica comune nell’Appennino settentrionale e sono uno dei principali agenti di modellazione del paesaggio. Spesso case e piccoli centri abitati sorgono in zone affette da questo tipo di movimento franoso e di conseguenza subiscono danni causati da piccoli spostamenti. In questo lavoro di Tesi vengono presentati i risultati ottenuti dall’interferometria radar ad apertura sintetica (InSAR) mediante elaborazione tramite StaMPS (Stanford Method of Persistent Scatterers), utilizzando la tecnica avanzata Small Baseline Subset (Berardino et al., 2002). Questo metodo informatico è applicato alle acquisizioni rilevate dai satelliti Envisat e COSMO-SkyMed in orbita ascendente e discendente, ottenendo una copertura di dati che va dal 2004 al 2015, oltre ad un rilevamento geologico-geomorfologico in dettaglio eseguito nell’area di studio. Questa tecnica di telerilevamento è estremamente efficace per il monitoraggio dei fenomeni di deformazione millimetrica che persistono sulla superficie terrestre, basata sull'impiego di serie temporali d’immagini radar satellitari (Ferretti et al., 2000). Lo studio è stato realizzato nel paese di Gaggio Montano nell’Appennino bolognese. In questa zona sono stati identificati diversi corpi di frana che si muovono con deformazioni costanti durante il tempo di investigazione e grazie ai risultati ottenuti dai satelliti è possibile confrontare tale risultato. Gli spostamenti misurati con il metodo InSAR sono dello stesso ordine di grandezza dei movimenti registrati dai sondaggi inclinometrici. Le probabili cause dell’instabilità di versante a Gaggio Montano sono di natura antropica, in quanto alti tassi di deformazione sono presenti nelle zone dove sorgono case di recente costruzione e complessi industriali. Un’altra plausibile spiegazione potrebbe essere data dalla ricarica costante d’acqua, proveniente dagli strati dei Flysch verso l’interno del complesso caotico sottostante, tale dinamica causa un aumento della pressione dell’acqua nelle argille e di conseguenza genera condizioni d’instabilità sul versante. Inoltre, i depositi franosi rilevati nell’area di studio non mostrano nessun tipo di variazione dovuta ad influenze idrologiche. Per questo motivo le serie temporali analizzare tendo ad essere abbastanza lineari e costanti nel tempo, non essendo influenzate da cicli stagionali.
Resumo:
Analisi fatte su colate attive, mostrano che per loro natura i lenti movimenti della frana, possono essere accelerati e fluidificati durante estesi o intesi periodi di pioggia. Il meccanismo ampiamente proposto che produce questo tipo di comportamento fluido, è rappresentato dall’aumento della pressione dall’acqua nei pori all’interno del corpo di frana, generando così una parziale o completa liquefazione. Questa transizione solido-liquido è il risultato di una drastica riduzione, in termini di rigidezza meccanica nella zona di terreno liquefatto, il quale può essere potenzialmente rilevata dal monitoraggio della variazione nelle velocità delle onde di taglio (Vs), come dimostrato dalla studio effettuato da Mainsant et al. del 2012. Con questo presupposto in mente, è stata condotta una campagna di monitoraggio durata da maggio a settembre 2015, che attraverso la tecnica d’indagine sismica MASW con metodo attivo-passivo, si è misurato, con cadenza bimestrale, la velocità delle onde di taglio superficiali in vari punti del corpo di frana della colata di Montevecchio (Cesena). Al fine di possedere una conoscenza migliore di suddetta frana, è stato condotto uno studio morfoevolutivo preliminare al periodo di monitoraggio, identificando e definendo così i principali aspetti che caratterizzano la frana. Dai risultati ottenuti dal monitoraggio, si evince che il cambiamento reologico nei terreni fini di frana, possono essere osservato attraverso la variazione delle (Vs), identificando una correlazione diretta tra eventi di precipitazione, con conseguente riattivazione della frana e decrescita delle velocità (Vs), tanto più marcato, quanto maggiore è stato lo spostamento registrato. Il lavoro di tesi condotto conferma quanto detto nello studio di Mainsant et al. del 2012, ponendolo come un valido metodo per predire gli eventi franosi tipo colata.
Resumo:
Il progetto vuole realizzare un sistema ultra low power, in grado di monitorare variabili fisiche quali temperatura e conducibilità dell'acqua nelle profondità marine in autonomia, per una durata complessiva di due anni. Il salvataggio dei dati raccolti nel periodo di utilizzo avrà come fine ultimo lo studio dei cambiamenti climatici relativi all'ambiente marino. Volendo collocare il sistema di monitoraggio sul dorso di pesci o in profondità oceaniche non facilmente accessibili è necessario garantire dimensioni ridotte e un funzionamento autonomo duraturo al termine del quale sarà possibile scaricare i dati raccolti. Nel tentativo di rispettare la specifica relativa al ciclo di lavoro autonomo del sistema è stato importante adottare una politica rigorosa riguardante i consumi estremamente ridotti, senza però venir meno alle ulteriori specifiche di progetto, riportate in dettaglio nei paragrafi successivi. Dalla progettazione circuitale alla realizzazione del firmware, passando per una minuziosa scelta della componentistica a minor consumo, ho avuto la possibilità di dar vita all'intero progetto in autonomia, confrontandomi con tutti gli aspetti e le problematiche che la realizzazione di un simile progetto porta con se.
Resumo:
Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.