13 resultados para mobility metric “remoteness”
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
This dissertation document deals with the development of a project, over a span of more than two years, carried out within the scope of the Arrowhead Framework and which bears my personal contribution in several sections. The final part of the project took place during a visiting period at the university of Luleå. The Arrowhead Project is an European project, belonging to the ARTEMIS association, which aims to foster new technologies and unify the access to them into an unique framework. Such technologies include the Internet of Things phe- nomenon, Smart Houses, Electrical Mobility and renewable energy production. An application is considered compliant with such framework when it respects the Service Oriented Architecture paradigm and it is able to interact with a set of defined components called Arrowhead Core Services. My personal contribution to this project is given by the development of several user-friendly API, published in the project's main repository, and the integration of a legacy system within the Arrowhead Framework. The implementation of this legacy system was initiated by me in 2012 and, after many improvements carried out by several developers in UniBO, it has been again significantly modified this year in order to achieve compatibility. The system consists of a simulation of an urban scenario where a certain amount of electrical vehicles are traveling along their specified routes. The vehicles are con-suming their battery and, thus, need to recharge at the charging stations. The electrical vehicles need to use a reservation mechanism to be able to recharge and avoid waiting lines, due to the long recharge process. The integration with the above mentioned framework consists in the publication of the services that the system provides to the end users through the instantiation of several Arrowhead Service Producers, together with a demo Arrowhead- compliant client application able to consume such services.
Resumo:
Lo scopo che questa tesi ha è di inserirsi nell’ambito della Smart Mobility, in particolare nell'ambito dell’accessibilità urbana. Obiettivo primario è di offrire un software capace di adattarsi alle capacità dell’utente nel muoversi nell’ambiente urbano, in particolare riguardo alle barriere architettoniche che lo ostacolano. Quello che il programma deve fare è offrire percorsi per l’utente, personalizzati rispetto alle sue richieste. Affinché sia possibile tutto ciò, sono necessarie delle fondamenta, nella fattispecie una fonte di dati geografici e uno strumento che permetta di ricercare percorsi da essi e di essere modificato per includere le modifiche volute. La fonte di dati geografici scelta è stata OpenStreetMap, un progetto di crowdsourcing che punta a creare una mappa globale completamente accessibile fino al suo livello più basso e utilizzabile da chiunque, purché sia rispettata la sua licenza. Da questa scelta, derivano i software utilizzabili per calcolare i percorsi: la tesi ne esplorerà in particolare due GraphHopper e OpenTripPlanner, entrambi progetti open source. L’ultimo, ma non meno importante, scopo della tesi è effettivamente implementare un algoritmo di routing capace di considerare le preferenze degli utenti. Queste preferenze, infatti, non devono solo permettere di escludere percorsi con una barriera/architettonica cui l’utente non può accedere, ma anche di favorire percorsi con le facility che l’utente preferisce e di sfavorire quelli con facility che l’utente non preferisce.
Resumo:
Nel corso degli ultimi decenni la fisica sperimentale ha raggiunto notevoli traguardi nel campo della manipolazione di sistemi di atomi freddi, riaccendendo l'interesse della ricerca su sistemi a lungo studiati teoricamente, ma fino a poco tempo fa impossibili da realizzare sperimentalmente. Questa riaccesa attenzione ha permesso di sfruttare le moderne capacità di calcolo per studiare sistemi quantistici che ancora risultano di difficile realizzazione. In questo contesto si inserisce il rinnovato interesse per i sistemi quantistici monodimensionali caratterizzati dalla presenza di potenziale disordinato. Questi presentano proprietà di trasporto particolari e sotto particolari condizioni sono oggetto di una transizione di localizzazione. La maggior parte degli studi in questo campo rivolgono la loro attenzione a sistemi di particelle fermioniche interagenti. In questo lavoro di tesi analizziamo, invece, sistemi quantistici fermionici non interagenti, mettendo in luce quanto già noto e proponendo strumenti di analisi derivati dallo studio dei sistemi interagenti. In particolare, proponiamo un'analisi statistica dei livelli energetici e poniamo le basi per futuri studi a riguardo.
Resumo:
La tesi si occupa della creazione di una piattaforma virtuale, composta da un sito web e da una applicazione Android, a supporto di persone con handicap motori. La piattaforma e composta da una mappa interattiva che permette agli utenti di inserire nuovi locali o di commentarne esistenti, e di fare lo stesso per le barriere architettoniche. Per questi motivi il progetto e dettato da una continua comunicazione tra client e server, rendendo la piattaforma aggiornata e dinamica, anche alla vista degli utenti. La parte web viene implementata attraverso Spring MVC, utilizzando delle View .jsp ed AJAX per la comunicazione remota con il server. La parte mobile e stata implementata basandosi principalmente sulle classi di geolocalizzazione di Android, oltre alle librerie osmdroid ed osmbonuspack, fornendo compatitiblita con OSM. Questa fornisce anche un servizio di calcolo del percorso, cercando di evitare il numero maggiore di ostacoli. L'applicazione Android appoggia le proprie comunicazioni sulla libreria Robospice. La parte di persistenza e stata implementata adottando un approccio ad alto livello, grazie ad Hibernate e JPA.
Resumo:
In questo lavoro verrà presentato lo sviluppo di un'applicazione nell'ambito della "Smart Mobility". In particolare verrà fornita l'implementazione di un modulo che sarà parte integrante di un'infrastruttura molto complessa, SMAll. Verranno quindi presentate alcune tecnologie utilizzate per la raccolta dei dati e l'utilizzo delle mappe, con particolare attenzione riguardo a OpenStreetMap. Seguirà quindi una presentazione del progetto divisa nelle fasi di analisi e progettazione, dettagliando tramite opportuni diagrammi il lavoro svolto. Infine ci sarà una discussione riguardo i risultati ottenuti e sugli sviluppi futuri che potranno essere intrapresi.
Resumo:
Increasing in resolution of numerical weather prediction models has allowed more and more realistic forecasts of atmospheric parameters. Due to the growing variability into predicted fields the traditional verification methods are not always able to describe the model ability because they are based on a grid-point-by-grid-point matching between observation and prediction. Recently, new spatial verification methods have been developed with the aim of show the benefit associated to the high resolution forecast. Nested in among of the MesoVICT international project, the initially aim of this work is to compare the newly tecniques remarking advantages and disadvantages. First of all, the MesoVICT basic examples, represented by synthetic precipitation fields, have been examined. Giving an error evaluation in terms of structure, amplitude and localization of the precipitation fields, the SAL method has been studied more thoroughly respect to the others approaches with its implementation in the core cases of the project. The verification procedure has concerned precipitation fields over central Europe: comparisons between the forecasts performed by the 00z COSMO-2 model and the VERA (Vienna Enhanced Resolution Analysis) have been done. The study of these cases has shown some weaknesses of the methodology examined; in particular has been highlighted the presence of a correlation between the optimal domain size and the extention of the precipitation systems. In order to increase ability of SAL, a subdivision of the original domain in three subdomains has been done and the method has been applied again. Some limits have been found in cases in which at least one of the two domains does not show precipitation. The overall results for the subdomains have been summarized on scatter plots. With the aim to identify systematic errors of the model the variability of the three parameters has been studied for each subdomain.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
Most of the existing open-source search engines, utilize keyword or tf-idf based techniques to find relevant documents and web pages relative to an input query. Although these methods, with the help of a page rank or knowledge graphs, proved to be effective in some cases, they often fail to retrieve relevant instances for more complicated queries that would require a semantic understanding to be exploited. In this Thesis, a self-supervised information retrieval system based on transformers is employed to build a semantic search engine over the library of Gruppo Maggioli company. Semantic search or search with meaning can refer to an understanding of the query, instead of simply finding words matches and, in general, it represents knowledge in a way suitable for retrieval. We chose to investigate a new self-supervised strategy to handle the training of unlabeled data based on the creation of pairs of ’artificial’ queries and the respective positive passages. We claim that by removing the reliance on labeled data, we may use the large volume of unlabeled material on the web without being limited to languages or domains where labeled data is abundant.
Resumo:
Nell’elaborato viene studiato il fenomeno dell’incidentalità singola delle utenze deboli sulla strada (perdita di controllo, scivolamento ecc..ecc..), con particolare enfasi nell’analizzare le conseguenze traumatiche dovute all’impatto con la superficie stradale. Una nuova tecnologia viene sviluppata per rendere le pavimentazioni di piste ciclabili, marciapiedi e zone pedonali con capacità di assorbimento degli impatti, prevenendo, o riducendo drasticamente, la probabilità e entità di eventi traumatici a seguito di una caduta. Attraverso una stesa di prova avvenuta ad Imola (BO), si sono analizzate e risolte le problematiche dovute alle discrepanze riscontrate fra “costruzione” in laboratorio e costruzione nella realtà urbana. La nuova tecnologia, infatti, è stata studiata come “construction-friendly”, permettendo alle società di costruzione e pavimentazione di stendere il nuovo manto protettivo con strumenti e macchinari tradizionali. Infine l’asfalto modificato è stato testato nei laboratori svedesi del KTH – Royal Institute of Technology per provarne l’efficacia in termini di assorbimento degli impatti. Nel “Drop Impact Test”, test specifico per l’approvazione dei caschi protettivi da bicicletta, l’asfalto modificato ha performato ben al di sotto della soglia di approvazione dei caschi da ciclista, e si colloca in un range di valore di accelerazione lineare perfino al di sotto della soglia di “Low Risk of Injuries”. La nuova tecnologia, inoltre, fa utilizzo di gomma granulata riciclata da pneumatici fuori uso. Tale dettaglio conferisce maggiore sostenibilità al progetto: oltre all’utilizzo di legante a freddo, che diminuisce le emissioni di CO2, e di incentivare l’utilizzo della mobilità dolce attraverso una più sicura rete infrastrutturale, l’utilizzo di gomma riciclata dà nuova vita al materiale che altrimenti andrebbe in discarica e prolunga, così, la vita utile del materiale.
Resumo:
L'image captioning è un task di machine learning che consiste nella generazione di una didascalia, o caption, che descriva le caratteristiche di un'immagine data in input. Questo può essere applicato, ad esempio, per descrivere in dettaglio i prodotti in vendita su un sito di e-commerce, migliorando l'accessibilità del sito web e permettendo un acquisto più consapevole ai clienti con difficoltà visive. La generazione di descrizioni accurate per gli articoli di moda online è importante non solo per migliorare le esperienze di acquisto dei clienti, ma anche per aumentare le vendite online. Oltre alla necessità di presentare correttamente gli attributi degli articoli, infatti, descrivere i propri prodotti con il giusto linguaggio può contribuire a catturare l'attenzione dei clienti. In questa tesi, ci poniamo l'obiettivo di sviluppare un sistema in grado di generare una caption che descriva in modo dettagliato l'immagine di un prodotto dell'industria della moda dato in input, sia esso un capo di vestiario o un qualche tipo di accessorio. A questo proposito, negli ultimi anni molti studi hanno proposto soluzioni basate su reti convoluzionali e LSTM. In questo progetto proponiamo invece un'architettura encoder-decoder, che utilizza il modello Vision Transformer per la codifica delle immagini e GPT-2 per la generazione dei testi. Studiamo inoltre come tecniche di deep metric learning applicate in end-to-end durante l'addestramento influenzino le metriche e la qualità delle caption generate dal nostro modello.
Resumo:
La tesi ha lo scopo di ricercare, esaminare ed implementare un sistema di Machine Learning, un Recommendation Systems per precisione, che permetta la racommandazione di documenti di natura giuridica, i quali sono già stati analizzati e categorizzati appropriatamente, in maniera ottimale, il cui scopo sarebbe quello di accompagnare un sistema già implementato di Information Retrieval, istanziato sopra una web application, che permette di ricercare i documenti giuridici appena menzionati.
Resumo:
This report has two main goals. First to improve methodologies of new mobility services .Second identify the solution to improve new mobility in urban transportation to decrease energy loss and decline climate change. This report also compares energy use and greenhouse gasses (GHG) emission impact for new mobility and all transportation modes. Having focus on central estimates and a range of possible alternatives to enhance the result to advance environmental effects. This analysis and research help to identify the possible solutions to make new mobility more sustainable