1000 resultados para indirizzo :: 840 :: Curriculum: Tecniche e tecnologie ambientali
Resumo:
Gli odierni sviluppi delle reti stradali nel territorio italiano e l’aumento della propensione all’utilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta sì a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti l’ambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando così incontro oltre che a una costruzione sostenibile anche ad un recupero di ciò che sarebbe destinato a discariche, ufficiali o abusive che siano. Nell’ottica dell’introduzione di “nuovi” materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nell’ambito delle pavimentazioni stradali, una notevole opportunità di riutilizzo all’interno dei conglomerati bituminosi. Il presente lavoro sperimentale è stato svolto nell’ottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dell’interazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette l’inserimento del polverino nella fase di miscelazione degli aggregati, dopo un’attenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si è proceduto all’esecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Il riconoscimento delle gesture è un tema di ricerca che sta acquisendo sempre più popolarità, specialmente negli ultimi anni, grazie ai progressi tecnologici dei dispositivi embedded e dei sensori. Lo scopo di questa tesi è quello di utilizzare alcune tecniche di machine learning per realizzare un sistema in grado di riconoscere e classificare in tempo reale i gesti delle mani, a partire dai segnali mioelettrici (EMG) prodotti dai muscoli. Inoltre, per consentire il riconoscimento di movimenti spaziali complessi, verranno elaborati anche segnali di tipo inerziale, provenienti da una Inertial Measurement Unit (IMU) provvista di accelerometro, giroscopio e magnetometro. La prima parte della tesi, oltre ad offrire una panoramica sui dispositivi wearable e sui sensori, si occuperà di analizzare alcune tecniche per la classificazione di sequenze temporali, evidenziandone vantaggi e svantaggi. In particolare, verranno considerati approcci basati su Dynamic Time Warping (DTW), Hidden Markov Models (HMM), e reti neurali ricorrenti (RNN) di tipo Long Short-Term Memory (LSTM), che rappresentano una delle ultime evoluzioni nel campo del deep learning. La seconda parte, invece, riguarderà il progetto vero e proprio. Verrà impiegato il dispositivo wearable Myo di Thalmic Labs come caso di studio, e saranno applicate nel dettaglio le tecniche basate su DTW e HMM per progettare e realizzare un framework in grado di eseguire il riconoscimento real-time di gesture. Il capitolo finale mostrerà i risultati ottenuti (fornendo anche un confronto tra le tecniche analizzate), sia per la classificazione di gesture isolate che per il riconoscimento in tempo reale.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.
Resumo:
Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.
Resumo:
Lo scopo di questo studio è descrivere nel dettaglio la procedura di Valutazione Ambientale Strategica (VAS) relativa ai Piani Energetici Provinciali (PEP) al fine di delinearne un metodo efficace di valutazione, a partire dallo studio del caso della Provincia di Ravenna. In seguito alla mancanza di Linee Guida sulla VAS, si è ritenuta utile un´analisi comparativa tra metodologie e strumenti, e gli obiettivi specifici e generali che andrebbero rispettati in ogni VAS di un PEP. Lo studio si basa su confronti paralleli tra quattro casi di VAS di Piani Energetici Provinciali al fine di elaborare un modello di valutazione delle VAS, semplice e diretto, basato su contenuti teorici e metodologici provenienti da una selezione di studi e documenti nazionali e internazionali, di cui si è tenuto conto e da cui si sono estrapolate le migliori "Buone Pratiche" per la VAS. L´analisi seguente è stata effettuata attraverso matrici qualitative in cui, per ciascuna connessione tra metodologia e "obiettivo VAS" si è espresso un giudizio che cerca di tenere conto, quando possibile, dei criteri e dei principi generali di sostenibilità dettati dalle maggiori autorità e associazioni internazionali e nazionali di valutazione ambientale. Il confronto tra i quattro casi, ha evidenziato dei punti di debolezza nell´applicazione della Direttiva VAS. Questo studio inoltre, ha tra i suoi obiettivi, quello ambizioso di delineare un metodo efficace di valutazione strategica dei piani energetici provinciali, a partire dallo studio del caso della Provincia di Ravenna. Per questi obiettivi, si è deciso di impostare un programma di lavoro basato sui sistemi informativi geografici, che ha permesso di individuare le aree con potenziale di sviluppo energetico della risorsa solare. Nello specifico è stato possibile calcolare quanta “superficie utile”, presente nelle aree industriali e commerciali della Provincia, potrebbe essere sfruttata installandovi pannelli fotovoltaici. Si è riusciti con questa metodologia a fornire una stima più dettagliata delle reali potenzialità della risorsa solare in Provincia di Ravenna, individuando nel dettaglio territoriale le rispettive quote percentuali che potrebbero essere installate, per raggiungere gli obiettivi di sostenibilità del piano. Il percorso iniziato con questa tesi consente di riflettere sulla necessità di approfondire il tema del rapporto tra valutazione ambientale qualitativa di uno strumento di pianificazione come la VAS, e la stima quantitativa sia della sostenibilità che del danno ambientale legato agli impatti negativi che questo strumento dovrebbe rilevare. Gli sviluppi futuri cui la tesi pone le basi sono l'implementazione di strumenti quantitativi di analisi delle potenzialità energetiche e di valutazione degli scenari. Questi strumenti sono necessari a definire i modelli ambientali per il supporto alle decisioni in campo energetico.
Resumo:
Nel campo della tecnologia, l’ultimo decennio è stato caratterizzato da significativi sviluppi nel mondo dei dispositivi mobili. Si è passati dal tradizionale telefono cellulare, ai più recenti palmari e Smartphone che integrano al tradizionale stereotipo di telefono cellulare, funzionalità avanzate su hardware molto sofisticato. Con un moderno dispositivo mobile infatti, è possibile collegarsi ad Internet, leggere mail, guardare video, scaricare applicazioni e installarle per poterne così fruire. L’International Telecommunications Union (ITU-T) ha stimato che alla fine del 2010 il numero di utenti Internet a livello mondiale ha raggiunto i 2 mi- liardi e che gli accessi alla rete cellulare hanno raggiunto circa 5,3 miliardi di sottoscrizioni. Se si considera inoltre che le reti 2G verranno sostituite da quelle 3G (che consente una connessione alla rete a banda larga tramite dispositivi cellulari), è inevitabile che nel prossimo futuro, gli utilizzatori di Internet tramite rete mobile potranno arrivare ad essere anche qualche miliardo. Le applicazioni disponibili in rete sono spesso scritte in linguaggio Java che su dispositivi embedded, dove è cruciale il consumo di energia, mettono in crisi la durata della batteria del dispositivo. Altre applicazioni scritte in linguaggi meno dispendiosi in termini di consumi energetici, hanno un’interfaccia scarna, a volte addirittura ridotta a semplice terminale testuale, che non è indicata per utenti poco esperti. Infine altre applicazioni sono state eseguite solo su simulatori o emulatori, perciò non forniscono riscontri su dispositivi reali. In questa tesi verrà mostrato come su un dispositivo mobile sia possibile utilizzare, tramite un’interfaccia “user-friendly”, una tecnologia già esistente e diffusa come il VoIP in maniera tale che qualunque tipologia di utente possa utilizzarla senza conoscerne i dettagli tecnici. Tale applicazione, dovendo utilizzare una connessione dati, sfrutterà o una connessione a una rete WLAN o una connessione a una rete cellulare (GPRS, UMTS e HSDPA ad esempio) a seconda della dotazione hardware dell’apparecchio mobile e della locazione dello stesso in una rete accessibile dall’utente.
Resumo:
Oggi piu' che mai e' fondamentale essere in grado di estrarre informazioni rilevanti e conoscenza dal grande numero di dati che ci possono arrivare da svariati contesti, come database collegati a satelliti e sensori automatici, repository generati dagli utenti e data warehouse di grandi compagnie. Una delle sfide attuali riguarda lo sviluppo di tecniche di data mining per la gestione dell’incertezza. L’obiettivo di questa tesi e' di estendere le attuali tecniche di gestione dell’incertezza, in particolare riguardanti la classificazione tramite alberi decisionali, in maniera tale da poter gestire incertezza anche sull’attributo di classe.
Resumo:
Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.