582 resultados para retorinen metodi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto per la tesi consiste nella realizzazione di un'applicazione Android che permetta all’utente di scattare o caricare dalla gallery una foto personale e prelevare da una ListView fotografie di abiti da provare mediante trascinamento di quest’ultimi sulla foto dell’utente. Le fasi di lavoro sono state principalmente quattro: - Ricerca sullo stato dell’arte della tecnologia legata al Virtual Dressing Room (storia, elenco e descrizione dei metodi utilizzati da piattaforme esistenti, esempi reali di queste metodologie) - Progettazione con individuazione degli obiettivi e featuring dell’applicazione - Implementazione dell'applicazione (creazione dei layout e codice java delle activity:inserimento taglie e scelta uomo/donna, scatto/caricamento foto, creazione del database e utilizzo mediante ListView, visualizzazione e gestione del carrello). Scrittura del volume di tesi (introduzione e descrizione della tecnologia, progettazione, implementazione con descrizione su Android SDK, Android Studio e implementazione con descrizione dei layout e classi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il termine “sovrastruttura stradale” identifica l’insieme di strati legati e non legati che, partendo dal piano viabile, raggiungono la sommità del rilevato o il piano di posa, nelle sezioni in trincea. Al fine di fornire agli utenti stradali sovrastrutture in grado di sviluppare prestazioni ottimali per lunghi periodi, è necessario che esse siano manutenute utilizzando i metodi via via più consoni al tipo di dissesto che si verifica. Attraverso numerose ricerche è emerso come uno dei fattori di maggiore influenza per il degrado stradale sia da attribuire all’efficacia del collegamento fra i diversi elementi di una sovrastruttura. Gli stati tensionali che si creano all’interfaccia fra due strati adiacenti, se non contrastati adeguatamente, possono provocare effetti dannosi come l’insorgere di fessurazioni ed il distacco fra gli strati. Per contrastare tali fenomeni, si è sviluppata la tecnica di inserire uno strato di rinforzo all’interno della sovrastruttura costituito da materiali metallici o sintetici anche nell’ambito delle costruzioni stradali. La ricerca effettuata in questo elaborato prevede lo studio del collegamento fra gli strati superficiali di una sovrastruttura flessibile rinforzata con geogriglie in fibra di vetro, mediante prove sperimentali condotte con apparecchiatura Leutner. Tale metodologia di prova è utilizzata per valutare la resistenza a taglio all’interfaccia fra i vari strati che compongono la pavimentazione. I campioni di prova sono stati estratti tramite carotatura da una pavimentazione esistente. Come ulteriore indagine, con gli stessi conglomerati sono stati creati nuovi campioni doppio strato mediante compattazione in pressa giratoria. Si è poi ripetuta la prova Leutner, per valutare la possibile variazione dei risultati ottenuti in precedenza e, in tale caso, studiare l’influenza della compattazione sulla resistenza a taglio presente all’interfaccia fra i due strati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi illustra le funzionalita e l'architettura di Node.js elencando e analizzando le caratteristiche che lo rendono un framework vincente nella sfida che il web attuale pone. La tesi comprende l'analisi e la descrizione del lavoro svolto per creare una libreria HTTP/ File system, integrata nel sistema di sviluppo cloud proprietario: Instant Developer , funzionante sia su Node.JS che sui browser che supportano appieno le nuove API File system di HTML 5. Particolare attenzione viene riservata per la descrizione della struttura della libreria, pensata per permettere all'utente dell'IDE di utilizzarla indifferentemente su server/browser senza preoccuparsi di chiamare metodi diversi. Fs.js permette di operare con file/cartelle, richieste HTTP in modo semplificato rispetto alle API Ufficiali dei rispettivi ambienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il crescente bisogno di infrastrutture di trasporto va inevitabilmente a collidere con la penuria di spazi che caratterizzano le città metropolitane. Per questo motivo ci si orienta sempre più spesso verso soluzioni che riescono a minimizzare lo spazio urbano utilizzato per sopperire ai bisogni legati alla mobilità. Il presente lavoro di tesi è incentrato sul tema del comportamento di scavi a cielo aperto in ambiente urbano, con particolare riferimento agli spostamenti delle strutture perimetrali di sostegno e del terreno a monte, nonché alla caratterizzazione geotecnica dei terreni interessati. In contesti edificati infatti, il controllo degli spostamenti è di fondamentale importanza per ridurre il più possibile il rischio di effetti indesiderati sulle strutture preesistenti. Il lavoro è stato strutturato come segue: Il capitolo 2 è dedicato ai risultati di evidenze sperimentali raccolte da diversi ricercatori con riferimento a un gran numero di casi di studio, che hanno portato alla definizione di correlazioni empiriche tra gli spostamenti, le caratteristiche del terreno e dell'opera di sostegno. Queste costituiscono un primo riferimento per una previsione qualitativa degli spostamenti indotti dagli scavi. Nel capitolo 3 si affronta il caso studio della stazione Dateo della metropolitana M4 di Milano, particolare attenzione viene rivolta alla caratterizzazione tecnologica degli elementi fondamentali, strutturali e geotecnici, che qualificano questo tipo di opere. Nel capitolo 4 vengono sintetizzati i risultati delle campagne geognostiche, ed esposta la caratterizzazione geotecnica dei terreni dell'area in esame. Il capitolo 5 è dedicato alla descrizione di semplici metodi empirici per la stima dei massimi spostamenti indotti dalla realizzazione di scavi profondi. Nel capitolo 6 si presentano le conclusioni del lavoro svolto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’applicazione dei metodi tradizionali dell’ingegneria del software non garantiscono il successo di un progetto, per questo motivo da circa quindici anni è emersa una nuova filosofia di sviluppo nota come Agile Software Development. In questa tesi è stata decritta una panoramica sulle metodologie agili, con particolare attenzione al framework Scrum e un caso di studio reale al quale Scrum è stato applicato. Il caso di studio riguarda l’implementazione di una applicazione web per la gestione del front-end di un Corporate Banking. L’applicazione di Scrum ha permesso di ottenere la soddisfazione del cliente finale, la crescita dello Scrum Team e un tasso di manutenzione correttiva accettabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La possibilità di monitorare l’attività degli utenti in un sistema domotico, sia considerando le azioni effettuate direttamente sul sistema che le informazioni ricavabili da strumenti esterni come la loro posizione GPS, è un fattore importante per anticipare i bisogni e comprendere le preferenze degli utenti stessi, rendendo sempre più intelligenti ed autonomi i sistemi domotici. Mentre i sistemi attualmente disponibili non includono o non sfruttano appieno queste potenzialità, l'obiettivo di sistemi prototipali sviluppati per fini di ricerca, quali ad esempio Home Manager, è invece quello di utilizzare le informazioni ricavabili dai dispositivi e dal loro utilizzo per abilitare ragionamenti e politiche di ordine superiore. Gli obiettivi di questo lavoro sono: - Classificare ed elencare i diversi sensori disponibili al fine di presentare lo stato attuale della ricerca nel campo dello Human Sensing, ovvero del rilevamento di persone in un ambiente. - Giustificare la scelta della telecamera come sensore per il rilevamento di persone in un ambiente domestico, riportando metodi per l’analisi video in grado di interpretare i fotogrammi e rilevare eventuali figure in movimento al loro interno. - Presentare un’architettura generica per integrare dei sensori in un sistema di sorveglianza, implementando tale architettura ed alcuni algoritmi per l’analisi video all’interno di Home Manager con l’aiuto della libreria OpenCV .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio, analisi ed implementazione di algoritmi esistenti per la correzione di distorsioni in immagini, con introduzione delle semplificazioni necessarie per la sua realizzazione in dispositivi embedded. Introduzione di nuovi metodi di semplificazione. Calibrazione di una telecamera o un sistema di telecamere stereo con lenti wide angle o fisheye tramite opencv.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I raggi X, a partire dalla loro scoperta, avvenuta nel 1895 ad opera di Wilhelm Conrad Röntgen, si sono rivelati un potentissimo mezzo per lo studio della materia. In particolare in campo medico hanno permesso la nascita della diagnostica per immagini che, parallelamente allo sviluppo delle tecnologie, è diventata un mezzo imprescindibile per lo studio delle patologie. Negli ultimi decenni molti studi sono stati compiuti in particolare sui vantaggi dell’utilizzo nell’imaging di raggi X monocromatici in sostituzione dell’usuale radiazione policromatica. Con il seguente elaborato si ha l’intento di fornire un quadro generale sulla fisica dei raggi X, sulla loro interazione con la materia e sugli attuali metodi di produzione di fasci monocromatici e quasi-monocromatici, con particolare attenzione all'utilizzo su vasta scala. Sono state infine trattate le principali applicazioni della radiazione monocromatica e quasi-monocromatica nelle tecniche di imaging medico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le acque sotterranee rappresentano una risorsa fondamentale di acqua potabile; per questo motivo esse devono essere preservate, controllate, e se necessario, trattate e decontaminate. Nella presente tesi è stato analizzato, dal punto di vista idraulico, uno dei metodi di risanamento delle acque sotterranee più efficaci ed ampiamente utilizzati: il sistema Pump & Treat. Esso consiste nella costruzione di una barriera idraulica formata da pozzi che pompano acqua dal sottosuolo per consentirne il trattamento e la conseguente reimmissione nel corpo idrico. In questo contesto, sono stati approfonditi i principali criteri di progettazione ed è stato sviluppato un esempio applicativo utilizzando il codice numerico MODFLOW per la risoluzione delle equazioni di flusso e trasporto in acque sotterranee.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.