992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni
Resumo:
This thesis presents a cloud-based software platform for sharing publicly available scientific datasets. The proposed platform leverages the potential of NoSQL databases and asynchronous IO technologies, such as Node.JS, in order to achieve high performances and flexible solutions. This solution will serve two main groups of users. The dataset providers, which are the researchers responsible for sharing and maintaining datasets, and the dataset users, that are those who desire to access the public data. To the former are given tools to easily publish and maintain large volumes of data, whereas the later are given tools to enable the preview and creation of subsets of the original data through the introduction of filter and aggregation operations. The choice of NoSQL over more traditional RDDMS emerged from and extended benchmark between relational databases (MySQL) and NoSQL (MongoDB) that is also presented in this thesis. The obtained results come to confirm the theoretical guarantees that NoSQL databases are more suitable for the kind of data that our system users will be handling, i. e., non-homogeneous data structures that can grow really fast. It is envisioned that a platform like this can lead the way to a new era of scientific data sharing where researchers are able to easily share and access all kinds of datasets, and even in more advanced scenarios be presented with recommended datasets and already existing research results on top of those recommendations.
Resumo:
This thesis presents a cloud-based software platform for sharing publicly available scientific datasets. The proposed platform leverages the potential of NoSQL databases and asynchronous IO technologies, such as Node.JS, in order to achieve high performances and flexible solutions. This solution will serve two main groups of users. The dataset providers, which are the researchers responsible for sharing and maintaining datasets, and the dataset users, that are those who desire to access the public data. To the former are given tools to easily publish and maintain large volumes of data, whereas the later are given tools to enable the preview and creation of subsets of the original data through the introduction of filter and aggregation operations. The choice of NoSQL over more traditional RDDMS emerged from and extended benchmark between relational databases (MySQL) and NoSQL (MongoDB) that is also presented in this thesis. The obtained results come to confirm the theoretical guarantees that NoSQL databases are more suitable for the kind of data that our system users will be handling, i. e., non-homogeneous data structures that can grow really fast. It is envisioned that a platform like this can lead the way to a new era of scientific data sharing where researchers are able to easily share and access all kinds of datasets, and even in more advanced scenarios be presented with recommended datasets and already existing research results on top of those recommendations.
Resumo:
A bioinformática e a genômica trabalham com bases de dados fora do padrão tradicional ou clássico que, por sua vez, caracterizam-se pela organizacão tabular e pelo tratamento destas em SGBDRs. Arquivos de genótipos são exemplos de bases de dados não clássicas e são caracterizados por serem gerados como arquivos textos, com dados desbalanceados, com alta dimensionalidade e por ocuparem muito espaço, entre outros aspectos. Os SGBDRs não têm se mostrado uma boa solucão para o tratamento de tais bases e, portanto, o presente trabalho busca avaliar o desempenho relativo entre bancos de dados NoSQL que representam duas famílias de diferentes modelo de dados, a partir de cenários de teste para a manipulação de arquivos de genótipo.
Resumo:
Le fonti di energia rinnovabili rappresentano una forma di energia indispensabile al sostentamento dell’attuale sistema produttivo mondiale. L’energia eolica e fotovoltaica ricoprono un ruolo fondamentale nel panorama rinnovabile, e portano con se l’inevitabile svantaggio derivato dall’impossibilita di controllare la fonte primaria di energia. I sistemi di accumulo ed immagazzinamento di energia assumeranno un ruolo strategico nel prossimo scenario energetico, in particolare nell’elaborato viene posta l’attenzione sui sistemi Power-to-Gas. La tecnologia Power-to-Gas consente di produrre gas ad alta potenza specifica (idrogeno o metano sintetico), usando elettricità proveniente da fonti rinnovabili. L’elettrolisi è il metodo più efficiente per convertire energia elettrica in idrogeno. Tra le varie tecnologie, gli elettrolizzatori di tipologia PEM (Proton Exchange Membrane), sono considerati i più adatti all’accoppiamento con fonti di energia rinnovabile, per via della loro risposta alle variazioni di carico e dell’ampio campo di funzionamento. Il lavoro di tesi si concentra sull’analisi delle prestazioni di elettrolizzatori tipo PEM, ed in particolare sull’elettrolizzatore inserito all’interno del “Laboratorio di Microreti di Generazione ed Accumulo” del Tecnopolo di Ravenna. Il laboratorio ha lo scopo di studiare e testare sistemi per la produzione di energia elettrica da fonte rinnovabile e per l’accumulo. L’impianto è costituito principalmente da due pannelli fotovoltaici con il compito di produrre energia, due batterie per accumulare l’energia prodotta dai pannelli, un elettrolizzatore e tre bombole a idruri metallici per lo stoccaggio di idrogeno. Dai dati sperimentali ottenuti dalle prove in laboratorio si è ricavato un modello matematico black-box dell’elettrolizzatore. Il modello gestisce le equazioni della curva caratteristica (P;η). In seguito il modello ottenuto è stato confrontato con un caso analogo presente in letteratura.
Resumo:
L’obiettivo dell’Internet of Things (IoT), come suggerisce il nome, è quello di connettere oggetti (spesso alimentati a batteria) alla rete Internet per poterne avere un controllo da remoto. Lo sviluppo di questa tecnologia prevede la progettazione di dispositivi che abbiano: un basso costo per unità, una durata della batteria sufficientemente lunga (anche dell’ordine di anni) quindi bassi consumi e la possibilità di realizzare un’ampia rete che possa supportare tante unità. Per questo elaborato è stata utilizzata la tecnologia LoRa, creata da Semtech. Essa lavora nelle frequenze ISM designate per le varie zone geografiche del mondo, presenta un Livello Fisico personalizzato ispirato alla modulazione CSS e un Livello MAC che si basa sul protocollo ALOHA puro. Lo scopo di questo elaborato è realizzare delle misure delle prestazioni in ambiente indoor tramite l’utilizzo di due nodi (End Devices) e un gateway. Sono state sviluppate due applicazioni Java per realizzare la comunicazione tra i dispositivi. Le misure sono state realizzate inizialmente con un nodo singolo, per osservarne il tasso di perdita di pacchetti (packet loss rate) e l’attenuazione di potenza sul canale (channel loss). Successivamente sono state inviate trasmissioni da entrambi i nodi, prima separatamente e poi in contemporanea, per valutare l’interferenza tra invii di messaggi con uguali impostazioni nello stesso canale. Per fare ciò è stato utilizzato un modello della comunicazione di canale che tiene conto del path loss e dello shadowing log-normale. I risultati hanno mostrato che con un solo nodo si tratta di una tecnologia affidabile. Per quanto riguarda i risultati delle misure con interferente è emersa una differenza con i valori attesi fino al 20%. Nell’elaborato vengono discussi i risultati ottenuti e possibili sviluppi futuri per questo tipo di sperimentazione.
Resumo:
I veicoli ad alte prestazioni sono soggetti ad elevati carichi per piccoli intervalli di tempo. Questo comporta diverse criticità sulle componenti che costituiscono la vettura: una di queste è la pinza freno. Al fine di renderla performante è necessario il possesso di due proprietà. In primo luogo, la pinza freno deve essere il più leggera possibile poiché essa conferisce un'inerzia nella risposta della sospensione del veicolo, procurando il distacco dello pneumatico dal suolo e causando perdita di aderenza. In secondo luogo, è necessario contenere le deformazioni della pinza freno garantendo un determinato feeling per il pilota. Il compito del progettista è ottimizzare questi due parametri che hanno effetti antitetici. Questa difficoltà porta il progettista a creare design molto complessi per raggiungere l’ottimale e non sempre le geometrie ottenute sono realizzabili con tecnologie convenzionali. Questo studio riguarda il miglioramento prestazionale di una pinza freno costruita con una lega di alluminio 7075-T6 e lavorato dal pieno. Gli obbiettivi sono quello di produrre il nuovo corpo in titanio TI6Al4V, dal momento che le temperature di esercizio portano a grandi decadute di caratteristiche meccaniche dell’alluminio, contenere il più possibile la massa a fronte dell’aumento di densità di materiale e ovviamente limitare le deformazioni. Al fine di ottenere gli obbiettivi prefissati sono utilizzati metodi agli elementi finiti in diverse fasi della progettazione: per acquisire una geometria di partenza (ottimizzazione topologica) e per la validazione delle geometrie ottenute. Le geometrie ricavate tramite l’ottimizzazione topologica devono essere ricostruite tramite software CAD affinché possano essere ingegnerizzate. Durante la modellazione è necessario valutare quale tecnologia è più vantaggiosa per produrre il componente. In questo caso studio si utilizza un processo di addizione di materiale, più specificatamente una tecnica Selective Laser Melting (SLM).
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.
Resumo:
Il progetto è stato svolto in collaborazione con HPE COXA, azienda modenese dedicata alla progettazione e simulazione di elementi meccanici per il settore automotive. La finalità del progetto di tesi presentato è quella di progettare un sistema di distribuzione motore a cascata di ingranaggi dedicato ed adattato ad un motore termico V8, 4000cc già esistente, così da sostituire l’attuale sistema di distribuzione a catena e rocchetti. La peculiarità del meccanismo da progettare è la bassa emissione sonora, la quale deve essere ottenuta mediante modifiche al profilo della dentatura e ad un corretto dimensionamento del sistema. Per riuscire a soddisfare la richiesta, si utilizzano software di progettazione e simulazione (KissSoft e KissSys) che consentono di studiare la fase di ingranamento delle ruote permettendo di comprenderne il comportamento. Lo studio approfondisce poi tematiche riguardanti la natura delle modifiche effettuate, la resistenza strutturale, la distribuzione delle forze e delle tensioni e la progettazione di un sistema di ancoraggio e lubrificazione che permetta il corretto funzionamento. Il lavoro sarà completato poi con due appendici, le quali approfondiscono ancora più nel dettaglio alcune delle caratteristiche delle modifiche del profilo di dentature elicoidali, le quali non sono state prese in considerazione per il progetto della distribuzione.
Resumo:
Con il termine "crowdsensing" si intende una tecnica in cui un folto gruppo di individui aventi dispositivi mobili acquisiscono e condividono dati di natura diversa in maniera collettiva, al fine di estrarre informazioni utili. Il concetto di Mobile Crowdsensing è molto recente e derivante dalle ultime innovazioni tecnologiche in materia di connettività online e cattura di dati di vario genere; pertanto non si trova attualmente una vera e propria applicazione in campo reale, la modellazione solo teorica e fin troppo specifica pone un limite alla conoscenza di un ambito che può rivelarsi molto utile ai fini di ricerca. YouCrowd è un piattaforma web che va ad implementare un sistema di crowdsourcing completo, in grado di leggere dati dai numerosi sensori di uno smartphone e condividerli, al fine di ottenere una remunerazione per gli utenti che completano una campagna. La web application vede la sua implementazione di base supportata da NodeJS e si configura come una piattaforma dinamica che varia la propria interfaccia con l'utente in base alle richieste di dati da parte degli administrators. Il test di YouCrowd ha coinvolto un buon numero di partecipanti più o meno esperti nell'utilizzo degli strumenti informatici, rivelando delle buone prestazioni in relazione alla difficoltà del task e alle prestazioni del device in test.
Resumo:
Lo studio ha applicato la metodologia Life Cycle Assessment (LCA) con l’obiettivo di valutare i potenziali impatti ambientali derivanti dalla coltivazione dell’uva in due aziende a conduzione convenzionale del ravennate, denominate DZ e NG. Successivamente è stato applicato il modello RothC per simulare scenari sulla variazione del Soil Organic Carbon (SOC) e valutare in che misura le diverse pratiche agronomiche di gestione del suolo influenzino la variazione del SOC e la relativa emissione di CO2. Infine, i risultati dell’LCA sono stati integrati con quelli del modello RothC. Gli esiti dell’LCA indicano che, generalmente, sui diversi aspetti ambientali l’azienda DZ ha impatti superiori a quelli di NG soprattutto a causa di un maggiore utilizzo di fertilizzanti e pesticidi. Per quanto riguarda il contributo al riscaldamento globale (GWP), DZ mostra un impatto circa doppio di quello di NG. Il modello RothC ha individuato quali pratiche culturali aumentano il SOC mitigando le emissioni di CO2eq., in particolare: l’inerbimento perenne, la scelta di forme di allevamento con elevata produzione di residui culturali e l’utilizzo di ammendanti. L’integrazione dei valori dei due strumenti ha permesso di ottenere un bilancio globale di CO2eq. in cui le emissioni totali rispetto al GWP aumentano in DZ e diminuiscono in NG, portando a un impatto di DZ circa tre volte superiore rispetto a quello di NG. Fertilizzazione, potatura e lavorazione del suolo sono pratiche considerate nel calcolo del GWP in termini di consumo ed emissione dei processi produttivi, ma non come input di carbonio fornibili al suolo, determinando sovra o sottostima delle effettive emissioni di CO2eq. Questo studio dimostra l’utilità di incentivare la diffusione dell’applicazione integrata dei due strumenti nel settore viticolo, determinante per la comprensione e quantificazione delle emissioni di CO2 associate alla fase di coltivazione, sulla quale quindi indirizzare ottimizzazioni e approfondimenti.
Resumo:
Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.
Resumo:
Il progetto alla base della presente tesi è stato sviluppato all’interno di Raviplast, società cooperativa nata nel 2013 dall’intenzione di un gruppo di lavoratori e tecnici di grande professionalità di dare seguito ad una lunga storia industriale. Raviplast si occupa della produzione di imballaggi flessibili in polietilene a bassa densità (LDPE), in particolare sacchi collati, saldati, a valvola, a tasca, a bocca aperta, tubolari e cappucci monopiega. L’intera gamma di prodotti viene ottenuta attraverso un unico processo industriale cioè la co-estrusione a bolla di film. All’interno di questo elaborato di tesi verrà descritto come le proprietà meccaniche, termiche e chimiche di prodotti formati da polietilene a bassa densità vergine differiscano rispetto a quelle di un prodotto con percentuale di polietilene a bassa densità riciclato crescente. Nel corso dell’esperienza sono state indagate le caratteristiche del granulo di polimero vergine riciclato per verificare l’omogeneità di proprietà come temperatura di fusione, densità e melt flow index (MFI), e poter operare al meglio la produzione. Sul prodotto finito, sia vergine che rigenerato, sono state testate la trazione longitudinale e trasversale al dinamometro, la temperatura di fusione tramite calorimetria differenziale a scansione (DSC) e prove ad impatto tramite caduta di dardo. Le proprietà indagate sono state confrontate per valutare con occhio critico quali accorgimenti adottare nel corso della produzione.