992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di analizzare a fondo il concetto sovrastruttura ferroviaria senza ballast e sottolinearne pregi e difetti rispetto a quella tradizionale con pietrisco, al fine di identificare chiaramente quando e dove i sistemi senza massicciata forniscono prestazioni migliori. L'aumento dei costi di manutenzione delle sovrastrutture ferroviarie al giorno d'oggi stanno aprendo la strada a nuovi sistemi, la maggior parte sviluppati in paesi che hanno linee di velocità elevate e tanti altri paesi si stanno preparando per aggiornare le proprie linee esistenti, nonché per creare nuove linee ferroviarie ad alta velocità. In molti casi i sistemi senza ballast sembrano avere le potenzialità per offrire un servizio per linee ad alta velocità più efficiente rispetto alle tracce tradizionali con ballast, soprattutto a causa della loro maggiore stabilità strutturale, del basso bisogno di manutenzione e del lungo ciclo di vita. Il primo capitolo è dedicato alla descrizione della struttura del binario tradizionale con ballast analizzando gli strati che formano la sovrastruttura. Il secondo capitolo è dedicato alla descrizione di varie tipologie, utilizzate nel mondo, di sovrastrutture ferroviarie senza ballast, di ognuna di esse sono state elencate le caratteristiche costruttive e prestazionali. Il terzo capitolo è dedicato al confronto tra le due tipologie di sovrastruttura, sono state descritte le capacità elastiche e deformative delle due soluzioni, il degrado cui incorrono le due soluzioni, gli stati sollecitanti a cui sono sottoposte e la risposta delle stesse. Di particolare importanza è il confronto di costo dei due sistemi e il rumore e le vibrazioni generate da questi; infatti negli ultimi anni questi sono gli aspetti fondamentali su cui si basa la scelta di un sistema costruttivo; a seguito di questo confronto è stato possibile trarre le conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono dette “challenged networks” quelle reti in cui lunghi ritardi, frequenti partizionamenti e interruzioni, elevati tassi di errore e di perdita non consentono l’impiego dei classici protocolli di comunicazione di Internet, in particolare il TCP/IP. Il Delay-/Disruption-Tolerant Networking (DTN) è una soluzione per il trasferimento di dati attraverso queste reti. L’architettura DTN prevede l’introduzione, sopra il livello di trasporto, del cosiddetto “bundle layer”, che si occupa di veicolare messaggi, o bundle, secondo l’approccio store-and-forward: ogni nodo DTN conserva persistentemente un bundle finché non si presenta l’opportunità di inoltrarlo al nodo successivo verso la destinazione. Il protocollo impiegato nel bundle layer è il Bundle Protocol, le cui principali implementazioni sono tre: DTN2, l’implementazione di riferimento; ION, sviluppata da NASA-JPL e più orientata alle comunicazioni spaziali; IBR-DTN, rivolta soprattutto a dispositivi embedded. Ciascuna di esse offre API che consentono la scrittura di applicazioni in grado di inviare e ricevere bundle. DTNperf è uno strumento progettato per la valutazione delle prestazioni in ambito DTN. La più recente iterazione, DTNperf_3, è compatibile sia con DTN2 che con ION nella stessa versione del programma, grazie all’introduzione di un “Abstraction Layer” che fornisce un’unica interfaccia per l’interazione con le diverse implementazioni del Bundle Protocol e che solo internamente si occupa di invocare le API specifiche dell’implementazione attiva. Obiettivo della tesi è estendere l’Abstraction Layer affinché supporti anche IBR-DTN, cosicché DTNperf_3 possa essere impiegato indifferentemente su DTN2, ION e IBR DTN. Il lavoro sarà ripartito su tre fasi: nella prima esploreremo IBR DTN e le sue API; nella seconda procederemo all’effettiva estensione dell’Abstraction Layer; nella terza verificheremo il funzionamento di DTNperf a seguito delle modifiche, sia in ambiente esclusivamente IBR-DTN, sia ibrido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este Trabajo de Fin de Máster se desarrollará un sistema de detección de fraude en pagos con tarjeta de crédito en tiempo real utilizando tecnologías de procesamiento distribuido. Concretamente se considerarán dos tecnologías: TIBCO, un conjunto de herramientas comerciales diseñadas para el procesamiento de eventos complejos, y Apache Spark, un sistema abierto para el procesamiento de datos en tiempo real. Además de implementar el sistema utilizando las dos tecnologías propuestas, un objetivo, otro objetivo de este Trabajo de Fin de Máster consiste en analizar y comparar estos dos sistemas implementados usados para procesamiento en tiempo real. Para la detección de fraude en pagos con tarjeta de crédito se aplicarán técnicas de aprendizaje máquina, concretamente del campo de anomaly/outlier detection. Como fuentes de datos que alimenten los sistemas, haremos uso de tecnologías de colas de mensajes como TIBCO EMS y Kafka. Los datos generados son enviados a estas colas para que los respectivos sistemas puedan procesarlos y aplicar el algoritmo de aprendizaje máquina, determinando si una nueva instancia es fraude o no. Ambos sistemas hacen uso de una base de datos MongoDB para almacenar los datos generados de forma pseudoaleatoria por los generadores de mensajes, correspondientes a movimientos de tarjetas de crédito. Estos movimientos posteriormente serán usados como conjunto de entrenamiento para el algoritmo de aprendizaje máquina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos do presente estudo foram: (i) analisar a evolução das características antropométricas e capacidades físicas ao longo de uma época desportiva (comparação entre sub-15, sub-17 e sub-19) e (ii) desenvolver uma plataforma informática para auxiliar o controlo e avaliação. No primeiro trabalho a amostra foi constituída por um total de 50 jogadores portugueses de elite Sub-15 (idade de 14.0 ± 0.1 anos; n=16), Sub-17 (idade de 15.6 ± 0.5 anos; n=14) e Sub-19 (idade de 17.2 ± 0.7 anos; n=20) e foram controlados em três (3) momentos de avaliação; após o período de preparação geral (avaliação pré época), após a 1ª fase do quadro competitivo (avaliação meio época) e após a 2ª fase do quadro competitivo (avaliação pós época). Para a análise antropométrica foi avaliada a altura, massa corporal, índice de massa corporal, massa muscular, massa gorda e perímetros do bicípite, tronco, abdómen, coxa e perna. Para a análise da capacidade física foi avaliada a resistência aeróbia, o trabalho desenvolvido pelos membros inferiores durante o salto vertical, a potência dos membros inferiores durante a corrida, a agilidade e a flexibilidade. Para as características antropométricas encontrou-se para os três (3) escalões um aumento na massa corporal e uma estabilização da massa gorda explicado pelo aumento da massa muscular. As capacidades físicas melhoraram para os três (3) escalões principalmente da avaliação da pré época para o meio da época existindo uma estagnação do meio da época para o final da época. Tendo por base o tempo despendido e a logística necessária aquando da recolha de dados para o primeiro trabalho, desenvolveu-se uma plataforma de forma a auxiliar e simplificar todo o processo. Utilizou-se o software Visual Studio 2013 da Microsoft® sendo usada a linguagem programática vb.net com auxílio a uma base de dados em SQL. Foi definido um diagrama lógico para agilização dos diferentes exercícios com a base de dados no qual se incluiu os testes de agilidade, resistência, flexibilidade, velocidade, altura de salto e análise antropométrica. O entendimento das variações existentes ao longo de uma época desportiva de acordo com o quadro competitivo de cada equipa, as suas idades de desenvolvimento e a inclusão das novas tecnologias para auxiliar o complexo processo de treino, podem contribuir como uma ferramenta fundamental na avaliação e controlo do treino desportivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modern software applications are becoming more dependent on database management systems (DBMSs). DBMSs are usually used as black boxes by software developers. For example, Object-Relational Mapping (ORM) is one of the most popular database abstraction approaches that developers use nowadays. Using ORM, objects in Object-Oriented languages are mapped to records in the database, and object manipulations are automatically translated to SQL queries. As a result of such conceptual abstraction, developers do not need deep knowledge of databases; however, all too often this abstraction leads to inefficient and incorrect database access code. Thus, this thesis proposes a series of approaches to improve the performance of database-centric software applications that are implemented using ORM. Our approaches focus on troubleshooting and detecting inefficient (i.e., performance problems) database accesses in the source code, and we rank the detected problems based on their severity. We first conduct an empirical study on the maintenance of ORM code in both open source and industrial applications. We find that ORM performance-related configurations are rarely tuned in practice, and there is a need for tools that can help improve/tune the performance of ORM-based applications. Thus, we propose approaches along two dimensions to help developers improve the performance of ORM-based applications: 1) helping developers write more performant ORM code; and 2) helping developers configure ORM configurations. To provide tooling support to developers, we first propose static analysis approaches to detect performance anti-patterns in the source code. We automatically rank the detected anti-pattern instances according to their performance impacts. Our study finds that by resolving the detected anti-patterns, the application performance can be improved by 34% on average. We then discuss our experience and lessons learned when integrating our anti-pattern detection tool into industrial practice. We hope our experience can help improve the industrial adoption of future research tools. However, as static analysis approaches are prone to false positives and lack runtime information, we also propose dynamic analysis approaches to further help developers improve the performance of their database access code. We propose automated approaches to detect redundant data access anti-patterns in the database access code, and our study finds that resolving such redundant data access anti-patterns can improve application performance by an average of 17%. Finally, we propose an automated approach to tune performance-related ORM configurations using both static and dynamic analysis. Our study shows that our approach can help improve application throughput by 27--138%. Through our case studies on real-world applications, we show that all of our proposed approaches can provide valuable support to developers and help improve application performance significantly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Zugang zu Datenbanken über die universelle Abfragesprache SQL stellt für Nicht-Spezialisten eine große Herausforderung dar. Als eine benutzerfreundliche Alternative wurden daher seit den 1970er-Jahren unterschiedliche visuelle Abfragesprachen (Visual Query Languages, kurz VQLs) für klassische PCs erforscht. Ziel der vorliegenden Arbeit ist es, eine generische VQL zu entwickeln und zu erproben, die eine gestenbasierte Exploration von Datenbanken auf Schema- und Instanzdatenebene für mobile Endgeräte, insbesondere Tablets, ermöglicht. Dafür werden verschiedene Darstellungsformen, Abfragestrategien und visuelle Hints für Fremdschlüsselbeziehungen untersucht, die den Benutzer bei der Navigation durch die Daten unterstützen. Im Rahmen einer Anforderungsanalyse erwies sich die Visualisierung der Daten und Beziehungen mittels einer platzsparenden geschachtelten NF2-Darstellung als besonders vorteilhaft. Zur Steuerung der Datenbankexploration wird eine geeignete Gestensprache, bestehend aus Stroke-, Multitouch- und Mid-Air-Gesten, vorgestellt. Das Gesamtkonzept aus Darstellung und Gestensteuerung wurde anhand des im Rahmen dieser Arbeit entwickelten GBXT-Prototyps auf seine reale Umsetzbarkeit hin, als plattformunabhängige Single-Page-Application für verschiedene mobile Endgeräte mittels JavaScript und HTML5/CSS3 untersucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicação Web pode-se dizer que é uma aplicação que responde a pedidos do utilizador através de um Browser. As aplicações web orientados a objetos hoje em dia têm cada vez mais espaços nas empresas. A redução dos custos de operacionalidade e a gestão das informações, depende da visão e missão das empresas n desenvolvimento das aplicações web, enquanto uma aplicação desktop precisaria de outros meios para a sua manutenção e com maiores custos. A facilidade do acesso principalmente na ASA em que os nossos servidores estão espalhados pelos aeroportos internacionais em Cabo Verde, sem a necessidade de ser instalada num computador sendo o acesso feito apenas através do Browser. Há uma grande vantagem na atualização que só deve ser feita no servidor em vez de máquina a maquina, também como a sua escalabilidade. A aplicação escolhida para desenvolvimento vai ajudar na gestão da frota das viaturas do corpo de Bombeiros do Aeroporto Internacional Cesária Évora, designada de GestFrota, com programação em PHP, HTML, CSS, JQuery e SQL. O trabalho permite o preenchimento diário de check-list dos equipamentos, o registo das viaturas e a gestão de extintores entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con questa tesi si vuole illustrare e riordinare il lavoro da me svolto sulla progettazione di mozzi ruota e di altri componenti ad esso associati, relativi alla vettura del team di Formula SAE dell’Università di Bologna. Dopo una prima fase di studio del particolare componente tesa a definire quali caratteristiche fossero richieste al fine di raggiungere gli obbiettivi, si è passati allo sviluppo del progetto con lo svolgimento di primi calcoli a mano, per definire in linea di massima le sollecitazioni, per poi affinare il dimensionamento con le simulazioni FEM. Il componente è stato infine realizzato in lega d'alluminio ad elevate prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è collaudare un inverter trifase per trazione elettrica stradale al fine di determinarne le specifiche nominali e di massima. Il lavoro è stato organizzato procedendo inizialmente con l’individuazione delle parti principali che concorrono alla formazione del convertitore, studiandone il principio di funzionamento e i diversi valori di tensione e di corrente che ne caratterizzano le prestazioni. Successivamente si è passati al collaudo della parte di potenza del convertitore con l’obiettivo di determinarne le prestazioni in relazione alla massima temperatura consentita di funzionamento. Questo tipo di prova ha richiesto l’individuazione di una sorgente di alimentazione dell’inverter in grado di fornire i picchi di potenza necessari durante la fase di sovraccarico (si tratta di diversi kW per alcune decine di secondi) e contemporaneamente di un carico trifase in grado di assorbire queste potenze senza danneggiarsi. E’ molto importante tenere presente che la prova per la determinazione delle prestazioni nominali dell’inverter, richiede una durata di diverse decine di minuti cioè fin tanto che l’inverter non ha raggiunto l’equilibrio termico e quindi la temperatura non varia apprezzabilmente nel tempo. Allo scopo si è impiegata come sorgente di alimentazione un pacco di batterie Litio-Ioni costituito da 32 celle da 160Ah collegate in serie per una tensione nominale di 105V, mentre come carico si è utilizzato un motore asincrono trifase collegato direttamente in uscita dell’inverter.