992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

All’interno di questo progetto ci proponiamo di creare un infrastruttura cloud grazie a Openstack, un supporto software Opensurce. Grazie a questa infrastruttura effettueremo dei test per valutare le varie tecniche di migrazione messe a disposizione da OpenStack, le loro caratteristiche e le loro prestazioni. Nel primo capitolo introduciamo i concetti base del cloud e delle tecnologie a cui esso è strettamente legato. In particolare definiremo i concetti di Infrastructure as a Service (IaaS) e di virtualizzazione che riguardano nello specifico il nostro caso di studio. Nel secondo capitolo viene descritto nel dettaglio OpenStack e i vari moduli di cui esso è composto. Nel terzo capitolo vengono descritte le varie tipologie di migrazione disponibili in OpenStack in tutte le loro fasi e vengono anticipate alcune considerazioni sui vantaggi e svantaggi che la scelta di una determinata tipologia di migrazione porta. Nel quarto e quinto capitolo vengono descritti rispettivamente l’infrastruttura utilizzata, il processo per crearla e i test a cui è stata sottoposta l’infrastruttura. Nel sesto capitolo vengono analizzati i risultati dei test da cui dedurre un quadro più completo sul comportamento e l’applicabilità delle varie migrazioni nei diversi scenari. Infine viene presentato nell'ultimo capitolo il sunto dei risultati dei test effettuati insieme ai possibili sviluppi futuri

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato viene descritto il funzionamento dei Beacon. Essi rappresentano un congegno che sfrutta la tecnologia Bluetooth 4.0, la quale, rispetto alle precedenti, si differenzia per alcune innovazioni apportate. Il loro utilizzo originario era rivolto al mondo del Mobile Advertising, ovvero l’invio di messaggi ad hoc agli utenti, sulla base di studi mirati a personalizzare un contenuto. Con lo scorrere del tempo invece si sono cercate nuove modalità d'uso in relazione al mondo da cui derivano: L'”Internet of Things” (IoT). Questa espressione descrive l'intento di dare vita agli oggetti. L'obiettivo di fondo è stato quello di delineare uno dei possibili casi d'uso. Nel concreto il sistema si prefigge, sfruttando l’interazione tra gli utenti, di monitorare la posizione in ambienti indoor di oggetti, usando il segnale RSSI dei Beacon ai quali sono associati, fornire l’aggiornamento dell’indirizzo in cui sono situati, visualizzabile sulle mappe Google con cui l’app è collegata, notificare ai proprietari gli eventuali ritrovamenti di uno di essi, rintracciare i dispositivi altrui. Prima di ciò, si è svolta un'analisi inerente le prestazioni che i Beacon sono in grado di offrire, in condizioni normali, prestando attenzione ad alcuni parametri come: frequenza di trasmissione (l’intervallo entro il quale vengono emessi segnali), il periodo di scansione (l’effettivo periodo di attività), più un’altra serie di risultati acquisiti durante l'esecuzione di alcuni esperimenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto di un sistema software - integrato in un apparato di supervisione industriale - dedicato alla personalizzazione e alla generazione automatica di file di definizione di report basati su database SQL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

.NET Compiler Platform è un compilatore per i linguaggi C# e Visual Basic realizzato da Microsoft. L’innovazione apportata da tale strumento è l’introduzione di API che permettono di accedere al compilatore; in particolare, è possibile accedere alle strutture dati utilizzate al suo interno, quali simboli o AST, e controllare e/o modificare il processo di compilazione. Una parte di questo progetto, chiamato anche progetto Roslyn, è focalizzata sull’introduzione dello scripting per il linguaggio C#. In questa trattazione si è interessati a sperimentare le possibilità offerte da tale strumento nel campo dell’esecuzione dinamica di frammenti di codice. Gli obiettivi imposti si collocano nell’ambito della re-ingegnerizzazione e dello sviluppo di software. Tali obiettivi sono la re-implementazione dei filtri di selezione contenuti nel framework Phoenix, utilizzando le API di Roslyn per migliorarne le prestazioni, e la progettazione di un componente che realizzi una console per lo scripting C# dotata della possibilità di riferire dinamicamente librerie. Le API di compilazione si rivelano essere non propriamente adatte all’esecuzione immediata di frammenti di codice, nonostante ciò, è possibile, appoggiandosi alla reflection, utilizzarle per giungere a questo risultato. Lo scripting, invece, si rivela uno strumento dalle grandi potenzialità nel suddetto ambito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato analizza l'effetto di additivi WMA e ringiovanenti sulle prestazioni finali del conglomerato bituminoso. Vengono percio citati diversi studi per cercare di capire come l'utilizzo del fresato e degli additivi influisca sulle prestazioni del conglomerato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale di questa tesi è quello di approfondire il tema della comunicazione e sincronizzazione dati nel contesto di uno specifico caso di studio di sistema informatico a supporto del lavoro cooperativo per il soccorso in emergenza: a partire dai requisiti del caso applicativo, secondo cui agli operatori deve essere possibile utilizzare il sistema anche a fronte di disconnessioni dei propri dispositivi mobili, emerge infatti la necessità di un middleware a cui il livello applicativo demandi le funzionalità di sincronizzare le informazioni prodotte durante le operazioni, in modo da promuovere uno scambio di informazioni che migliori e supporti l'azione del singolo e conseguentemente del team. Quindi, dopo aver introdotto la tematica ed analizzato il caso di studio da affrontare, viene descritta l'esplorazione del panorama tecnologico volta alla ricerca di strumenti o approcci che possano mitigare la complessità nella realizzazione di questa funzionalità. Nel panorama tecnologico considerato, comprendente framework per servizi web, MOM e database, uno strumento di particolare interesse è stato individuato in CouchDB, un database NoSQL, grazie alle sue funzionalità di replica e sincronizzazione e alla presenza di una libreria per lo sviluppo su dispositivi mobili: su di esso è stata effettuata una breve fase di sperimentazione volta a saggiarne in maniera più concreta le potenzialità anche in relazione alla valutazione di fattibilità per il caso applicativo considerato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La realtà virtuale è un campo in continua crescita e in costante studio, in particolare nell'applicazione nel campo del gaming e nella formazione. In questa tesi sono stati confrontati e testati due visori per la realtà virtuale di tipo immersivo: OSVR e Oculus Rift DK2. Per il confronto dei due dispositivi sono stati creati su Blender due modelli: una rappresentazione tridimensionale di Times Square molto realistica (sfruttando Google Street View per la visualizzazione degli edifici e dei banner pubblicitari) e un circuito di Go Kart stile cartoon. Successivamente alla creazione di questi, è stato utilizzato il motore grafico Unity per l'aggiunta della dinamica dei componenti dei visori e il completamento dei due progetti, per esempio l'utilizzo degli script per il movimento del go kart. Tramite lo strumento Profiler e il Frame Debugger di Unity sono stati eseguiti i test sulle performance e sono state svolte le considerazioni finali sui visori. I risultati ottenuti possono essere d'aiuto per uno studio successivo sulla realtà virtuale immersiva ed essere una base di partenza per le migliorie da adottare con lo scopo di ottenere migliori prestazioni ed una maggiore interattività con l'utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ogni giorno vengono generati grandi moli di dati attraverso sorgenti diverse. Questi dati, chiamati Big Data, sono attualmente oggetto di forte interesse nel settore IT (Information Technology). I processi digitalizzati, le interazioni sui social media, i sensori ed i sistemi mobili, che utilizziamo quotidianamente, sono solo un piccolo sottoinsieme di tutte le fonti che contribuiscono alla produzione di questi dati. Per poter analizzare ed estrarre informazioni da questi grandi volumi di dati, tante sono le tecnologie che sono state sviluppate. Molte di queste sfruttano approcci distribuiti e paralleli. Una delle tecnologie che ha avuto maggior successo nel processamento dei Big Data, e Apache Hadoop. Il Cloud Computing, in particolare le soluzioni che seguono il modello IaaS (Infrastructure as a Service), forniscono un valido strumento all'approvvigionamento di risorse in maniera semplice e veloce. Per questo motivo, in questa proposta, viene utilizzato OpenStack come piattaforma IaaS. Grazie all'integrazione delle tecnologie OpenStack e Hadoop, attraverso Sahara, si riesce a sfruttare le potenzialita offerte da un ambiente cloud per migliorare le prestazioni dell'elaborazione distribuita e parallela. Lo scopo di questo lavoro e ottenere una miglior distribuzione delle risorse utilizzate nel sistema cloud con obiettivi di load balancing. Per raggiungere questi obiettivi, si sono rese necessarie modifiche sia al framework Hadoop che al progetto Sahara.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fronte di un notevole incremento di funzionalità e strutture, nell'ambiente Web si sono intrapresi numerosi percorsi volti alla creazione di progetti che vanno a supportare il sovraccarico riversato sul lavoro che i linguaggi e i software sono tenuti a svolgere. Ad oggi il Javascript è uno dei linguaggi maggiormente utilizzati in ambito Web, e si rivela spesso essenziale al corretto sviluppo di applicazioni particolarmente evolute. Questo linguaggio, come è noto, sposta l’elaborazione del codice sul lato client, quindi sarà il Browser a supportare il carico di lavoro. Inoltre, è proprio quest’ultimo ad essere incaricato della gestione delle risorse computazionali locali, necessarie a tutte le operazioni di interpretazione del codice presente nelle pagine Web. Il crescente numero di connessioni da dispositivi mobili e la complessità dei siti Web, aumentano il rischio di avvicinarsi ad un punto critico relativo alla velocità e alle prestazioni dei Browser, in questa direzione sono stati realizzati progetti come asm.js piuttosto che Typescript in grado di velocizzare o incrementare le funzionalità e le prestazioni del linguaggio Javascript. Webassembly vuole integrare i vantaggi proposti da questi linguaggi tramite una meccanica di conversione dei file in formato binario, il quale essendo molto più leggero e veloce, consente una elaborazione molto più performante da parte dei Browser. Questo documento espone una panoramica sulle funzionalità e la progettazione di questo linguaggio, analizzando elementi lessicali e relativi vantaggi rispetto alle tecnologie diffuse fino ad ora. Il quadro generale di questa tesi ci prepara all’apertura di un nuovo scenario molto più ampio e diverso, sostenuto da un approccio al Web strutturalmente innovativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Effettuando un’analisi della condizione attuale del parco edilizio che costituisce le nostre città e periferie, ciò che si può rilevare è che questo, allo stato attuale, risulta in condizioni di grave degrado tecnologico, energetico, sociale ed architettonico. Diviene pertanto necessario intervenire su questa ampia porzione di città. A tal fine possono essere attuati due metodi di intervento: la trasformazione dell’esistente attraverso la completa sostituzione dei manufatti edilizi, oppure la riqualificazione dell’esistente con opere mirate. Questo secondo modello di intervento ha il pregio di riconoscere il valore culturale del tessuto edilizio esistente, puntando a criteri di sviluppo sostenibile, e guardando ai manufatti esistenti riconoscendone il potenziale economico ed architettonico. Allo stato attuale pertanto la disciplina punta a questo secondo metodo di intervento ricercando soluzioni in grado di modificare le prestazioni dell’edificio fino a renderle soddisfacenti in rapporto alle nuove esigenze ambientali, economiche, del vivere contemporaneo dell’individuo e della collettività nel suo complesso. Tra le opere che possono essere attuate al fine di riqualificare queste preziose aree, oltre a quelle di riqualificazione che mirano al miglioramento del comportamento energetico e della qualità architettonica dell’edificio esistente, si considera anche l’intervento per addizione, che permette la densificazione dei tessuti esistenti attraverso l’aumento del numero di alloggi sociali e l’implementazione dei servizi. In questo modo si va ad implementare e completare la gamma di prestazioni di un manufatto edilizio che non è più in grado di soddisfare tutte quelle esigenze del vivere contemporaneo. Il risultato finale è quindi un sistema edilizio che, grazie all’intervento, può vantare una valorizzazione complessiva del patrimonio immobiliare, grazie agli elevati livelli di prestazione energetica, alle condizioni di vivibilità eccellenti raggiunte e alla migliorata qualità architettonica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise Applications are complex software systems that manipulate much persistent data and interact with the user through a vast and complex user interface. In particular applications written for the Java 2 Platform, Enterprise Edition (J2EE) are composed using various technologies such as Enterprise Java Beans (EJB) or Java Server Pages (JSP) that in turn rely on languages other than Java, such as XML or SQL. In this heterogeneous context applying existing reverse engineering and quality assurance techniques developed for object-oriented systems is not enough. Because those techniques have been created to measure quality or provide information about one aspect of J2EE applications, they cannot properly measure the quality of the entire system. We intend to devise techniques and metrics to measure quality in J2EE applications considering all their aspects and to aid their evolution. Using software visualization we also intend to inspect to structure of J2EE applications and all other aspects that can be investigate through this technique. In order to do that we also need to create a unified meta-model including all elements composing a J2EE application.