998 resultados para POI


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il potenziale che il Web ha raggiunto in termini di accessibilità, gestione e flessibilità, ha spinto i più svariati settori ad approcciarsi ad esso e ad adottarlo all’interno delle proprie organizzazioni. É stato quindi necessario applicare alle tradizionali applicazioni web, nuove soluzioni al fine di integrare gli elementi di workflow management con il modello dei dati di navigazione e di presentazione. In questo lavoro di tesi, si affrontano gli aspetti legati ai processi di business, con riferimento alla progettazione e allo sviluppo di applicazioni Web. Verranno introdotti standard di modellazione come UML e BPMN per poi descrivere soluzioni e casi di studio esistenti. Nella seconda parte dell'elaborato invece, verranno presentate le tecnologie utilizzate per il design e lo sviluppo di un framework, a supporto delle process-aware Web applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli algoritmi di gossip sono utilizzati per la disseminazione di messaggi in una rete peer-to-peer. La tesi tratta lo sviluppo, l'implementazione e l'analisi di quattro nuovi algoritmi di gossip "a due fasi". Gli algoritmi sono stati sviluppati e testati con il simulatore LUNES per poi essere analizzati in vari confronti con gli algoritmi classici dell'ambito, ovvero Fixed Probability e Conditional Broadcast. Le prove sono state effettuate su varie tipologie di grafi, ovvero Random, Scale-free, Small-world e K-Regular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente ricerca è stata svolta con l’obbiettivo di valutare le caratteristiche prestazionali di pavimentazioni in conglomerato bituminoso con aggiunta di PFU. Il prodotto è un legante bituminoso modificato, al quale il polverino di gomma da PFU è aggiunto manualmente (meccanicamente) al mescolatore tramite tecnologia Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini. Ai fini di tale studio sono stati stesi 300 metri di SMA lungo la S.P. 569 nel centro abitato di Zola Predosa (BO) durante la quale sono state effettuate le analisi ambientali. Di questi 300 metri, una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Sono state predisposte 3 diverse indagini sperimentali: a 2 mesi dalla stesa (31 Luglio 2014), a 6 mesi e la terza ad 1 anno dalla prima sessione di controllo. Nella prima campagna è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori, mentre per tutte le campagne di prova tutte sono state effettuate analisi per la valutazione dell’aderenza, della tessitura e dell’emissione e assorbimento acustico della pavimentazione. L’elaborato è sviluppato nel seguente modo: sarà prima presentata una panoramica sul problema del riciclaggio di PFU. Verranno poi riportate le norme che regolano l’uso delle strumentazioni utilizzate durante le prove e la trattazione dei dati che ne derivano. Verrà poi descritto il campo prove, la stesa sperimentale e tutti i test effettuati sul sito di Zola Predosa. Successivamente verrà effettuata l’analisi dei dati rispettivamente per l’analisi ambientale, il pendolo, l’altezza in sabbia, l’analisi dei livelli acustici, il LaserProf, lo Skiddomter BV11 e il Laser NextEngine HD. Infine verranno tratte le conclusioni, basate sulle analisi condotte, al fine di valutare il rendimento delle pavimentazioni indagate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è stato quello di realizzare un'app, in collaborazione con l'Università degli Studi di Roma Tor Vergata, che fosse di supporto nello stabilire l'ecostenibilità del pesce comprato da potenziali acquirenti. In modo particolare, per ecosostenibilità dell'acquisto del pesce intendiamo principalmente due fattori: - lunghezza minima del pesce pescato; - attenzione posta sul pescare ed acquistare pesce nel giusto periodo dell'anno. Col primo aspetto, intendiamo porre l'attenzione sul fatto che ogni esemplare di pesce deve essere di una certa lunghezza minima per essere pescato e poi messo in vendita mentre col secondo fattore intendiamo l'evitamento della pesca di certe specie di pesce qualora si trovino nella loro stagione riproduttiva. Pertanto, compito fondamentale dell'app presentata in questa tesi è quello di stimare la lunghezza di un pesce acquistato mediante una fotografia scattata allo stesso tramite uno smartphone e di verificare se esso sia stato venduto nella giusta stagione, preoccupandosi poi non solo di informare di conseguenza l'utente ma anche di salvare ed inviare una segnalazione riguardo l'esito dell'operazione a seguito di un'attenta raccolta di dati. Vedremo nel corso di questo documento quali siano stati tutti i passaggi di sviluppo di questa app e quali aspetti abbiano richiesto una maggiore attenzione per mantenere sia una semplicità d'uso nei confronti dell'utente sia un'implementazione rapida ma efficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di tesi ha il compito di far comunicare un device mobile con un apparato elettromedicale tramite tecnologia bluetooth low energy. Il paziente ha a disposizione questo apparato per misurarsi l'elettrocardiogramma autonomamente e poi, tramite l'uso dell'app, vengono mostrati i risultati ottenuti dalla misurazione. Una volta inviati i dati dal dispositivo elettromedicale all'app, questi vengono anche inoltrati a un server dove saranno sottoposti a controlli, da parte del medico curante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono studiate alcune caratteristiche dei network a multiplex; in particolare l'analisi verte sulla quantificazione delle differenze fra i layer del multiplex. Le dissimilarita sono valutate sia osservando le connessioni di singoli nodi in layer diversi, sia stimando le diverse partizioni dei layer. Sono quindi introdotte alcune importanti misure per la caratterizzazione dei multiplex, che vengono poi usate per la costruzione di metodi di community detection . La quantificazione delle differenze tra le partizioni di due layer viene stimata utilizzando una misura di mutua informazione. Viene inoltre approfondito l'uso del test dell'ipergeometrica per la determinazione di nodi sovra-rappresentati in un layer, mostrando l'efficacia del test in funzione della similarita dei layer. Questi metodi per la caratterizzazione delle proprieta dei network a multiplex vengono applicati a dati biologici reali. I dati utilizzati sono stati raccolti dallo studio DILGOM con l'obiettivo di determinare le implicazioni genetiche, trascrittomiche e metaboliche dell'obesita e della sindrome metabolica. Questi dati sono utilizzati dal progetto Mimomics per la determinazione di relazioni fra diverse omiche. Nella tesi sono analizzati i dati metabolici utilizzando un approccio a multiplex network per verificare la presenza di differenze fra le relazioni di composti sanguigni di persone obese e normopeso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha lo scopo di determinare una correlazione tra lo spostamento laterale e la riduzione di resistenza a trazione per le connessioni di tipo holdown per pareti in legno massiccio XLam. Per raggiungere questo obiettivo è stata condotta un’indagine sperimentale, nella quale sono state eseguite prove cicliche a trazione in controllo di spostamento assiale, con imposizione di uno spostamento a taglio iniziale. Sono state eseguite inoltre prove monotone combinate, caratterizzate da contemporaneo spostamento a taglio e assiale legati da rapporto diverso per ogni tipologia di prova. Si è ricavata una legge di danno che correla lo spostamento laterale alla riduzione di resistenza assiale: per scorrimenti entro 15 mm il danno è contenuto (10%), ma arrivando a 30-45mm la riduzione di resistenza è del 20%. Mettendo insieme invece le monotone ottenute variando il suddetto rapporto di velocità si è definito un dominio di resistenza. La seconda parte verte sulla modellazione numerica in OpenSEES delle connessioni come molle di un materiale isteretico, tarate sulla base delle curve sperimentali cicliche ottenute. Queste sono state poi utilizzate per la modellazione di una parete a molle disaccoppiate, che considera solo la resistenza a trazione per hold-down e a taglio per angolari (sottostima resistenza reale). Una seconda modellazione a molle accoppiate considera la resistenza in entrambe le direzioni: questo sovrastima la resistenza globale reale, poiché non tiene conto della contemporanea applicazione del carico nelle due direzioni. E’ stata quindi applicata la suddetta legge di danno attraverso un procedimento iterativo che in base agli spostamenti laterali riduce la resistenza assiale e riesegue l’analisi con i parametri corretti, per rivalutare spostamenti e resistenze: la progettazione attuale sovradimensiona gli angolari, il collasso della struttura avviene per rottura non bilanciata, con hold-down plasticizzati e angolari in campo elastico (meccanismo di rocking).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è calata nell'ambito dell'Aggregate Programming e costituita da una prima parte introduttiva su questo ambito, per poi concentrarsi sulla descrizione degli elaborati prodotti e infine qualche nota conclusiva unitamente a qualche possibile sviluppo futuro. La parte progettuale consiste nell'integrazione del framework Scafi con il simulatore Alchemist e con una piattaforma di creazione e di esecuzione di sistemi in ambito Spatial Computin, con lo scopo di potenziare la toolchain esistente per Aggregate Programming. Inoltre si riporta anche un breve capitolo per l'esecuzione del framework scafi sviluppato in scala sulla piattaforma Android.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si tratta di un'analisi della piattaforma di sviluppo per BPMN Activiti. Viene prima spiegata la notazione del Business Process Modeling e poi viene descritto il funzionamento e la struttura di Activiti. Infine viene spiegato come usare le API fornite insieme al motore.