694 resultados para sviluppo sostenibile, sistema di Gestione Ambientale, evento sostenibile


Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Non possiamo permettere l'utilizzo del [tessuto] urbano come strumento per la produzione di iniquità e trasferimenti, incapaci di vedere l'importanza e la difficoltà di creare uno spazio attivo che sia equo, ecologico ed economico" (Schafran, 2014). In un contesto di emergenza ambientale globale e considerando le problematiche degli insediamenti popolari sudamericani, la presente ricerca propone l’introduzione del concetto di sostenibilità urbana come fattore di miglioramento di un quartiere della periferia del Gran Santiago. Il caso studio è interessante in quanto la politica cilena si muove in direzione di maggiore consapevolezza per i temi ambientali, pur dovendo ancora risolvere problemi di segregazione e scarsa qualità nella “vivienda social”. La presente ricerca è quindi finalizzata ad individuare una matrice composta da linee guida di sostenibilità riferite alla scala di quartiere, come strategia per rispondere ai problemi socio-residenziali, oltre alle imperanti esigenze di maggiore sostenibilità ambientale. A tale scopo è necessario fare riferimento a sistemi di valutazione adeguati: analizzando quelli utilizzati in ambito nazionale e internazionale, si ricava una matrice di 106 linee guida, 16 criteri e 3 ambiti principali di interesse. È questo lo strumento utilizzato per la diagnosi del caso studio. In base alle criticità emerse e alle necessità dell’area emergono due strategie principali su cui si articola la proposta progettuale di riqualificazione del quartiere: implementare dotazioni di servizi e aree verdi e introdurre tecnologie e misure ecofriendy, col fine di generare identità e migliorare la qualità di vita nel quartiere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi è stato svolto presso l’azienda Ecosurvey® - 3000 Srl, con sede a Bologna. Ecosurvey® fornisce servizi e consulenze nel campo della geologia e delle scienze ambientali e opera in diversi ambiti, tra cui le bonifiche del suolo, del sottosuolo e delle acque sotterranee. L’inquinamento del suolo e del sottosuolo è, infatti, il contesto dello studio di questa tesi. Tale inquinamento è persistente: con riferimento ai fenomeni di contaminazione, il sottosuolo registra la storia industriale di un sito. L’approccio che tenta di coniugare i bisogni dell’uomo nella società con il rispetto dell’ambiente è lo sviluppo sostenibile, ovvero, secondo la World Commission on Environment and Development, uno sviluppo che soddisfa i bisogni del presente senza compromettere la possibilità delle generazioni future di soddisfare i propri. Tra i molti ambiti in cui si applica il concetto di sostenibilità, è da ricordare quello delle bonifiche dei siti contaminati. A tal proposito, l’United States Environmental Protection Agency nel 2008 ha introdotto il concetto di “green remediation” come la pratica del considerare tutti gli effetti ambientali di un’azione di bonifica, includendo nel processo opzioni in grado di minimizzarne l’impronta ambientale. Nel 2013 la società Battelle, con i servizi tecnici ambientali di U.S. Navy, e U.S. Army Corps of Engineers ha sviluppato un applicativo denominato SiteWiseTM per la valutazione degli impatti ambientali associati alle tecnologie di bonifica delle acque sotterranee. Nell’ambito di questa tesi, in riferimento ad un intervento di bonifica presso un impianto di produzione di bitumi in attività, contaminato da idrocarburi, idrocarburi aromatici e composti organo-clorurati, con l’applicativo sono stati esaminati i principali indicatori dell’impronta ecologica (emissioni di gas serra, di ossidi di azoto, di zolfo e di polveri sottili; consumi di acqua, suolo ed energia) per tre diverse opzioni di bonifica, effettuandone poi il confronto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto fondante e le motivazioni alla base di questo lavoro di tesi sono costituiti dalla volontà di analizzare a fondo la problematica energetica ed ambientale, focalizzando l‟indagine sul ruolo delle Fonti Energetiche Rinnovabili e contestualizzandola nel contesto “locale” relativo alla Regione Emilia Romagna: questo lavoro di tesi, infatti, è stato sviluppato nell‟ambito di un progetto di collaborazione stipulato tra Università e Regione Emilia Romagna e si è svolto all‟interno dell‟Assessorato alle Attività Produttive della Regione, lavorando con il “Servizio Politiche Energetiche” emiliano-romagnolo. La crisi energetica (e, contestualmente, la crisi ambientale) rappresenta una problematica al centro del dibattito globale da oltre mezzo secolo, affrontata finora in maniera non organica e realmente efficace dalle nazioni e dagli organismi sovranazionali coinvolti in tale dibattito. Tale tematica è divenuta ancora più pregnante (e la ricerca di una “soluzione” al riguardo, ancora più pressante) negli ultimi anni, in seguito alla deflagrazione di una crisi globale –economica e sociale- che ha intaccato i modelli di crescita e sviluppo (anche tecnologico) conosciuti finora, ponendo di fronte agli occhi dell‟umanità la necessità impellente di ridefinire politiche economiche, ambientali e, conseguentemente, energetiche, caratterizzate da una maggiore sostenibilità globale. La continua crescita della popolazione e il progressivo incremento generalizzato (e disomogeneo) degli standard di vita alimentano con ritmi esponenziali la domanda –e la conseguente produzione- di energia, inevitabilmente correlata (proprio a causa dei modelli di sviluppo seguiti finora) ad un drammatico incremento delle emissioni climalteranti, che continuano a nuocere irreversibilmente alla salubrità del nostro fragile ecosistema. Oltre alla problematica ambientale si aggiunge, con impellenza sempre più marcata, quella relativa alla disponibilità delle principali fonti energetiche (quelle fossili), che si profilano in esaurimento entro lassi temporali che potrebbero divenire drammaticamente prossimi: il “rischio reale” connesso alla prosecuzione di politiche energetiche poggiate sullo sfruttamento intensivo di tali fonti non è tanto connesso all‟eventuale esaurimento assoluto delle risorse stesse, quanto ad una loro progressiva riduzione, tale da renderle viepiù costose e sempre meno convenienti economicamente. Uno scenario di questo tipo si tradurrebbe inevitabilmente in una condizione per la quale solamente i Paesi più ricchi potrebbero usufruire di tali risorse, estremamente costose, mentre i Paesi meno evoluti economicamente rischierebbero di trovarsi nell‟impossibilità di approvvigionarsi, andando incontro a condizioni di deficit energetico: uno scenario inquietante, che però non appare così “ipotetico”, se si tiene conto di come –già ora- siano in aumento segnali di allarme e di conflitto, attivati da localizzate insufficienze energetiche. In un quadro globale di questo tipo le strade risolutive finora riconosciute e percorse dal mondo scientifico, politico ed economico sono sostanzialmente due: - L‟implementazione del risparmio energetico, in un‟ottica di drastica riduzione dei consumi globali; - La “conversione” della produzione energetica (attualmente fondata sulle fonti convenzionali, ossia quelle fossili) verso le cosiddette “Fonti Energetiche Alternative”. Questa seconda direttrice di marcia sembra poter essere quella in grado di reindirizzare verso un orizzonte di maggiore sostenibilità l‟attuale sistema energetico globale, e in quest‟ottica assumono quindi enorme importanza strategica le tecnologie alternative e, prime tra tutte, le Fonti Energetiche Rinnovabili (FER). Queste consentirebbero infatti sia di ridurre l‟impatto ambientale connesso alla produzione energetica da fonti convenzionali, che di implementare politiche di autosufficienza energetica per quei Paesi che attualmente, dal punto di vista del bilancio energetico interno, dipendono in misura marcata dall‟importazione di combustibili fossili dall‟estero. La crisi energetica e il conseguente ruolo chiave delle Fonti Energetiche Rinnovabili è quindi il punto di partenza di questa tesi, che ha voluto confrontarsi con tale problematica globale, misurandosi con le azioni e con i provvedimenti intrapresi al riguardo a livello locale, focalizzando l‟attenzione sulla realtà e sugli sviluppi delle Fonti Energetiche Rinnovabili nella Regione Emilia Romagna. Per sviluppare il lavoro si è proceduto definendo prima di tutto un quadro complessivo della situazione, in termini di problematica energetica e di stato attuale delle Fonti Energetiche Rinnovabili, scendendo progressivamente nel dettaglio: partendo da una fotografia a livello mondiale, quindi europeo, successivamente italiano (basandosi sui dati di pubblicazioni italiane ed estere, di enti competenti in materia come Terna, il GSE o l‟Enea per l‟Italia, e l‟IEA, l‟EIA, l‟UE per l‟Europa e il resto del mondo). Nella terza parte della tesi si è scesi al dettaglio di questo stato attuale delle Fonti Energetiche Rinnovabili a livello Regionale (Emiliano-Romagnolo) e Provinciale (le nove Province della Regione): per procedere alla definizione di questo quadro la “tecnica operativa” è consistita in una raccolta dati effettuata in collaborazione con il ”Servizio Politiche Energetiche” della Regione Emilia Romagna, estesa alle 9 Province e ai 348 Comuni del territorio emiliano-romagnolo. La richiesta di dati avanzata è stata relativa agli impianti alimentati da fonte energetica rinnovabile in esercizio e a quelli in fase di valutazione sul territorio afferente all‟Ente considerato. Il passo successivo è consistito nell‟aggregazione di questi dati, nella loro analisi e nella definizione di un quadro organico e coerente, relativo allo stato attuale (Ottobre 2010) delle Fonti Energetiche Rinnovabili sul territorio emiliano-romagnolo, tale da permettere di realizzare un confronto con gli obiettivi definiti per le FER all‟interno dell‟ultimo Piano Energetico Regionale e con lo stato delle FER nelle altre Regioni italiane. Sono stati inoltre realizzati due “Scenari”, relativi all‟evoluzione stimata del parco “rinnovabile” emiliano-romagnolo, definiti al 2012 (“Breve Termine”) e al 2015 (“Medio Termine”). I risultati ottenuti hanno consentito di verificare come, nell‟orizzonte “locale” emiliano-romagnolo, il sistema globale connesso alle Fonti Energetiche Rinnovabili abbia attecchito e si sia sviluppato in misura marcata: gli obiettivi relativi alle FER definiti nel precedente Piano Energetico Regionale sono infatti stati sostanzialmente raggiunti in toto. Dalla definizione degli “Scenari” previsionali è stato possibile stimare l‟evoluzione futura del parco “rinnovabile” emilianoromagnolo, verificando come questo risulti essere in continua crescita e risulti “puntare” su due fonti rinnovabili in maniera particolare: la fonte fotovoltaica e la fonte a biocombustibili. Sempre dall‟analisi degli “Scenari” previsionali è stato possibile stimare l‟evoluzione delle singole tecnologie e dei singoli mercati rinnovabili, verificando limiti allo sviluppo (come nel caso della fonte idroelettrica) o potenziali “espansioni” molto rilevanti (come nel caso della fonte eolica). Il risultato finale di questo lavoro di tesi è consistito nel poter definire dei nuovi obiettivi, relativi alle differenti Fonti Energetiche, da potersi inserire all‟interno del prossimo Piano Energetico Regionale: l‟obiettivo “complessivo” individua –avendo il 2015 come orizzonte temporale- una crescita incrementale delle installazioni alimentate da FER pari a 310 MWe circa. Questo lavoro di tesi è stato ovviamente organizzato in più “Parti”, ciascuna ulteriormente suddivisa in “Capitoli”. Nella “Prima Parte”, costituita dai primi 4 Capitoli, si è proceduto ad introdurre la problematica energetica e il contesto in cui si muovono le decisioni e le politiche (comunitarie, nazionali e sovra-nazionali) destinate a trovare soluzioni e risposte: Il Primo Capitolo, introduttivo, definisce prima di tutto gli “strumenti” e i concetti che verranno successivamente richiamati più volte nel resto della Tesi, partendo dal concetto di “energia”, definito sia “concettualmente” che attraverso le unità di misura utilizzate per quantificarlo. Il passo successivo è stato quello di contestualizzare l‟evoluzione dello sfruttamento di questa “risorsa”, in relazione allo sviluppo delle tecnologie e delle stesse condizioni di vita umane, così da definire un background storico per le considerazioni introdotte nel Capitolo successivo. Il Secondo Capitolo, infatti, introduce la problematica attuale (ma mutuata dal background storico evidenziato in precedenza) della “crisi energetica” e della “crisi ambientale” ad essa correlata, considerandone gli aspetti prima di tutto globali, connessi a considerazioni di natura sociale, demografica e –conseguentemente economica e sociale: all‟interno di questa analisi, vengono citati anche gli scenari previsionali elaborati da numerosi enti di ricerca e istituzioni, coinvolti su più livelli nell‟ottica di riuscire ad individuare una “risposta” alle problematiche sollevate dallo sfruttamento intensivo della risorsa energetica per vie convenzionali. Tale risposta è rappresentata dalle normative sovranazionali, europee e italiane varate nell‟ottica di attuare una “transizione etica” in materia di sviluppo sostenibile, impatto ambientale e sfruttamento energetico: un presupposto imprescindibile per la transizione energetica sostenibile è proprio l‟impegno a livello locale (quindi anche e prima di tutto di istituzioni quali, in Italia, le Regioni, le Province e i Comuni), senza il quale difficilmente si potranno raggiungere traguardi avanzati, che implicano anche un sostanziale cambio di mentalità. Nell‟ottica di approfondire ulteriormente il contesto all‟interno del quale vengono adottate azioni e intrapresi provvedimenti utili a concretizzare risposte a livello italiano –nazionale e locale- il Terzo Capitolo introduce il tema delle “politiche energetiche sostenibili”, partendo dalla definizione dell‟attuale condizione Italiana (in termini di inquinamento atmosferico e di sfruttamento intensivo della risorsa energetica, nonché di scenari previsionali), per definire successivamente le politiche nazionali per le fonti rinnovabili, per il settore dei trasporti, del riscaldamento e del raffreddamento, della pianificazione energetica e della generazione distribuita. Il Capitolo introduce anche il tema degli interventi in ambito di fiscalità energetica (“Certificati Verdi”, “Certificati Bianchi” e il “Conto Energia”). Proprio per definire al meglio i meccanismi di incentivazione, il Quarto Capitolo esplicita (facendo riferimento alla documentazione pubblicata da enti quali GSE, Terna, GRTN) il meccanismo del cosiddetto “mercato elettrico” e degli scambi che vi avvengono, in modo tale da comprendere come i metodi di incentivazione alle fonti alternative che si appoggiano su interventi di fiscalità energetica, riescano ad avere –o meno- presa sul sistema. La “Seconda Parte” (costituita dai Capitoli dal 5° al 13°) è invece dedicata al necessario approfondimento sullo stato delle Fonti Energetiche Rinnovabili (FER): in ogni capitolo è stato infatti approfondita la condizione attuale delle principali FER (fonte a Biocombustibili, Eolica, Geotermica, Idraulica, Solare Fotovoltaica, Solare Termica, Solare Termodinamica). Tale approfondimento è stato condotto in termini di sviluppo della tecnologia, incidenza e contributo della singola FER sui bilanci elettrici (considerando prima il quadro mondiale, quindi quello europeo, per scendere infine al dettaglio italiano). Nella parte finale di ogni capitolo sono state riportate anche le principali criticità riscontrate per ogni fonte presa in considerazione, oltre che gli scenari previsionali stimati considerandone i potenziali sviluppi, in un‟ottica di medio termine e di lungo termine. La “Terza Parte” (comprendente i Capitoli dal 14° al 22°) di questa Tesi raccoglie invece il lavoro svolto e i risultati ottenuti e permette di definire lo stato attuale e gli scenari previsionali (a breve termine e a medio termine) per le Fonti Energetiche Rinnovabili nella Regione Emilia Romagna, con un livello di dettaglio sia Regionale che Provinciale. Il lavoro, come detto, è consistito nella raccolta dati effettuata presso gli enti di “governo territoriale” emiliano-romagnoli (la Regione, le 9 Province e i 348 Comuni) e nella successiva aggregazione, elaborazione e interpretazione di questi stessi dati. I Capitoli dal 15° al 19° definiscono lo stato attuale (all‟Ottobre 2010) e gli scenari previsionali (a breve termine e medio termine) per le differenti FER (rispettivamente, Biocombustibili, Eolica, Fotovoltaica, Geotermica e Idroelettrica), prima a livello Provinciale, quindi a livello Regionale. Nella conclusione di ogni Capitolo è contenuto un confronto con lo stato della FER presa in considerazione relativo agli anni precedenti, oltre che il confronto con gli obiettivi definiti per la tecnologia al 2010 dal precedente Piano Energetico Regionale. Questi Capitoli si chiudono con l‟analisi del trend storico della Fonte Energetica Rinnovabile considerata e con la conseguente individuazione dei potenziali obiettivi al 2012 e al 2015 da inserire nel prossimo Piano Energetico Regionale. E‟ presente anche l‟evoluzione stimata del “mercato” della singola FER presa in considerazione, oltre che della “tipologia tecnologica” sulla quale gli installatori e gli investitori tenderanno ad orientarsi sia nel breve che nel medio termine. I Capitoli 20°, 21° e 22° contengono invece lo stato “riassuntivo” delle Fonti Energetiche Rinnovabili, definite per il panorama emiliano-romagnolo (anche in questo caso, prima a livello Provinciale, successivamente a livello regionale) sotto un‟ottica temporale differente: il Capitolo 20° riassume lo stato attuale del parco “rinnovabile” complessivo emiliano-romagnolo, definendone l‟evoluzione storica e confrontandolo con gli obiettivi fissati al 2010 dal precedente Piano Energetico regionale, permettendo così di verificare –nel complesso- se le stime del 2004 erano state corrette. Il Capitolo 21° definisce l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2012, sia a livello Provinciale che Regionale, definendone in questo modo un trend stimato di crescita e dei conseguenti obiettivi di breve termine, riferiti alle singole FER. Il Capitolo 22° definisce infine l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2015 (ancora una volta, sia a livello Provinciale che Regionale) permettendo così di ricavare un trend stimato di crescita e, soprattutto, gli obiettivi di medio termine -riferiti alle singole FER- da inserire all‟interno del prossimo Piano Energetico Regionale. La conclusione permette di chiudere sinteticamente il lavoro svolto in precedenza, traendo le indicazioni più rilevanti dai dati e dalle considerazioni pregresse: come si evincerà, l‟Emilia Romagna risulta una Regione in cui gli obiettivi rinnovabili (e di “conversione energetica”) sono stati sostanzialmente raggiunti e, in alcuni casi, perfino superati. Il mercato rinnovabile è in crescita e le politiche locali e sovra locali evidenziano una marcata volontà di puntare prevalentemente su settori e tecnologie quali quella della biomassa e quella solare fotovoltaica. Nonostante questo, si evidenzia anche la necessità di lavorare a livello di enti regionali e provinciali, per omogeneizzare ulteriormente la distribuzione energetica “rinnovabile” sul territorio (implementando lo sviluppo di determinate fonti su distretti territoriali al momento non ancora raggiunti da tali mercati) e per provvedere ad una riduzione dei consumi energetici che consenta alle FER di avere una maggiore incidenza sui bilanci energetici ed elettrici, locali e regionali. Si ricorda che la “costruzione” di questa tesi è stata sviluppata parallelamente ad un‟attività di stage presso il settore Politiche energetiche dell‟Assessorato alle Attività Produttive della Regione Emilia – Romagna, che in questa fase sta procedendo alla definizione del nuovo Piano Energetico Regionale, e alla conseguente individuazione d

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo della presente tesi curriculare è una lettura, in chiave critica, di alcuni esami ed esperienze significative svolte all’interno del corso di studi presso la Facoltà di Architettura “Aldo Rossi”. Questa tesi è caratterizzata da riflessioni circa i principi di sostenibilità per il progetto urbanistico: partendo dal concetto di sostenibilità, si procederà nel rivedere le tappe fondamentali della nascita di questo termine, analizzare gli impegni sottoscritti a livello mondiale ed infine valutare come tali principi sono stati trattati lungo il percorso di studi intrapreso: nel Laboratorio di Sintesi Finale in Architettura Sostenibile, nel Laboratorio di Urbanistica e durante il corso di Tecnica Urbanistica, con riferimento all’esperienza IP Socrates Erasmus Intensive Programme svolto presso la University of Western England a Bristol. Ognuno tra i progetti scelti per questa tesi curriculare è caratterizzato dalla presenza di “verde” come elemento unificatore. Il verde è una componente essenziale nelle nostre città e la qualità ambientale fa parte dei principi cardini dello sviluppo sostenibile; da qui il titolo “the green way”, verde come impronta ecologica, verde come parte integrante del progetto e verde come principio alla base di un una nuova mentalità sostenibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'energy harvesting è un processo in cui l'energia ambientale comunemente disponibile viene catturata mediante opportuni trasduttori e circuiti elettronici per essere convertita in energia elettrica utilizzabile. Il progetto descritto sarà una estensione ed integrazione di un sistema già esistente, per la riproduzione attraverso un sistema elettrodinamico vibrante (shaker), di vibrazioni acquisite dall'ambiente circostante in situazioni di riferimento tipiche (esempio le vibrazioni prodotte da un veicolo in movimento o un uomo in corsa), al fine di caratterizzare trasduttori piezoelettrici per studiarne il funzionamento, le caratteristiche e il loro comportamento. Lo scopo finale è quello di realizzare un sistema stand-alone che sia in grado di riprodurre e controllare in maniera affidabile le vibrazioni imposte da un sistema vibrante, al fine di realizzare un sistema di caratterizzazione per dispositivi di energy harvesting vibrazionale. In questo progetto, l’intera gestione del processo viene affidata ad un microcontrollore presente sulla scheda di controllo, il quale consente in tempo reale la visualizzazione delle forme d’onda oggetto di studio mediante un display grafico, l’elaborazione dei dati presenti nel sistema nonché la possibilità di caricare e salvare dei dati significativi sulla memoria del sistema durante le fasi di testing. Le caratteristiche implementate rendono il sistema facile da usare. Successivamente verranno descritte le specifiche tecniche necessariamente da rispettare per la realizzazione di un sistema che permetta di riprodurre e fornire dati attendibili, la struttura di visualizzazione grafica del sistema, la parte di condizionamento del segnale e i principi teorici del controllo ad anello chiuso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.