992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni
Resumo:
Quadro legislativo europeo e nazionale e nuovi decreti della regione Emilia Romagna riguardanti le misure per il contenimento dei consumi energetici nell'edilizia. Analisi energetica di un edificio residenziale. Studio di alcuni interventi proposti al fine di incrementare le prestazioni energetiche dell'edificio, diminuendone le dispersioni verso l'ambiente esterno e/o migliorando il rendimento dell'impianto. Tali interventi sono volti alla riduzione dei consumi, sia economici sia di combustibile fossile, e al miglioramento delle condizioni di benessere termoigrometrico. Successiva analisi economica degli interventi, utilizzando come indici il VAN e il PBT e tenendo conto dell'Ecobonus. Relazione tra gli investimenti iniziali di cui necessitano tali interventi e la riduzione dell'indice di prestazione energetica ottenuta. Relazione tra gli investimenti iniziali necessari e i relativi valori di risparmio annuo monetario che si ottiene in seguito alla diminuzione di energia primaria e quindi di combustibile utilizzato per il riscaldamento e la produzione di acqua calda sanitaria. Confronto fra i vari interventi al fine di valutarne la convenienza.
Resumo:
In questo lavoro viene effettuata un’analisi di membrane per la separazione di CO2 basate sul meccanismo di trasporto facilitato. Queste membrane sono caratterizzate da un supporto poroso impregnato di una fase liquida le cui proprietà chimico-fisiche vengono presentate in relazione alle performance di separazione fornite: si tratta di liquidi ionici che presentano gruppi funzionali in grado di reagire con la CO2 consentendo il trasporto facilitato del gas acido attraverso la membrana. Le prestazioni in termini di separazione di CO2 da miscele gas fornite da questa tecnologia vengono analizzate e confrontate con quelle offerte da altre tipologie di membrane: alcune basate sul meccanismo di solution-diffusion (membrane polimeriche e membrane impregnate di liquidi ionici room-temperature) ed altre caratterizzate da permeazione di CO2 con presenza di reazione chimica ottenuta mediante facilitatori (mobili o legati allo scheletro carbonioso del polimero costituente la membrana). I risultati ottenuti sono analizzati in merito alla possibile implementazione di tale sistema di separazione a membrana in processi di cattura di CO2 nell'ambito della tecnologia di Carbon Capture and Storage.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Le prestazioni meccaniche di una miscela di conglomerato bituminoso dipendono principalmente dai materiali che la compongono e dalla loro interazione. La risposta tenso-deformativa delle sovrastrutture stradali è strettamente legata al comportamento reologico del legante bituminoso e dalla sua interazione con lo scheletro litico. In particolare nelle pavimentazioni drenanti, a causa dell’elevato contenuto di vuoti, il legame che si crea tra il legante (mastice bituminoso) e l’aggregato è molto forte, per questo motivo è importante migliorarne le prestazioni. Additivando il mastice con polverino di gomma da PFU (pneumatici fuori uso), non solo si migliorano prestazioni, resistenza alle deformazioni permanenti ed elastoplasticità del materiale, ma si sfruttano anche materiali di recupero, portando vantaggi anche dal punto di vista ambientale. In quest’ottica la ricerca effettuata nella tesi si pone come obiettivo l’analisi reologica e lo studio di mastici additivati con polverino di gomma ricavato da PFU, per la realizzazione di conglomerati bituminosi drenanti. In particolare, partendo da un bitume di base, sono stati preparati due mastici: il primo ottenuto miscelando bitume modificato e filler calcareo, il secondo aggiungendo al precedente anche il polverino di gomma. Tale studio è stato eseguito mediante l’utilizzo del DSR (Dynamic Shear Rheometer – UNI EN 14770), con il quale sono state affrontate tre prove: Amplitude Sweep test, per la valutazione del valore di deformazione di taglio γ entro il quale il materiale si mantiene all’interno del campo di viscoelasticità lineare (Linear visco-elasticity, LVE); Frequency Sweep test, per l’estrapolazione delle master curves; Multiple stress Creep Recovery, per valutare la resistenza del materiale alle deformazioni permanenti. Dall’analisi dei dati è stato possibile definire il comportamento reologico di entrambi i mastici e, in seconda analisi, confrontarne le caratteristiche e le prestazioni.
Resumo:
Il presente elaborato si propone di analizzare la tematica della sostenibilità nella gestione della Supply Chain, con particolare attenzione alla misurazione delle performance attraverso indicatori KPI e modelli multidimensionali. Nella prima sezione, dopo un’introduzione sul tema dello sviluppo sostenibile, si offre una descrizione dello scenario attuale e degli approcci alla sostenibilità, evidenziandone i principi guida e le sfide future, mentre in seguito vengono analizzate le pressioni esercitate dagli stakeholder per l’implementazione di pratiche sostenibili. La seconda porzione dell’elaborato è incentrata sull’introduzione della sostenibilità nel Supply Chain Management, caratterizzandone l’evoluzione dalla tradizionale gestione della catena di fornitura e mettendone in luce opportunità e barriere. Successivamente, la terza parte si propone di entrare nel dettaglio in merito alle pratiche adottabili nella filiera finalizzate all’implementazione di un management sostenibile, proponendo un modello concettuale per l’analisi delle varie attività, dalla progettazione di prodotto fino alla logistica inversa. Un’ulteriore tematica approfondita è rappresentata dall’impatto di queste pratiche sostenibili sulle performance economiche aziendali, proponendo diversi approcci. Nell’ultima sezione dell’elaborato il focus è incentrato sulla misurazione delle performance di sostenibilità, dove ne vengono indagate opportunità e difficoltà, proponendo in seguito un modello teorico. Contestualmente vengono quindi esposti diversi KPI e modelli multidimensionali, i quali, con modalità e prospettive diverse, contribuiscono alla misurazione delle prestazioni di sostenibilità: in particolare viene fatto riferimento agli indici caratteristici del GRI e all’utilizzo combinato della balanced scorecard e dell’analytic hierarchy process.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
Negli ultimi anni, lo sviluppo tecnologico e il progresso nel campo della nanotecnologia hanno portato ad un radicale cambiamento per i prodotti ceramici: oltre all’innovazione di formati e spessori, si è cominciato ad utilizzare trattamenti funzionali capaci di trasformare sistemi di rivestimento convenzionali in rivestimenti “intelligenti”. Questo ha comportato l’utilizzo di questi materiali, tradizionali ma “innovati” nelle loro prestazioni, in contesti in precedenza non considerati. L’efficacia di questi rivestimenti al momento della loro applicazione non rappresenta più una novità, mentre a livello normativo e procedurale vi è una grossa lacuna per quanto riguarda la valutazione della durabilità dei rivestimenti e la capacità di mantenimento nel tempo delle prestazioni iniziali. Per questo motivo, il presente lavoro è stato orientato verso uno studio riguardante la durabilità dei trattamenti di completamento applicati a superfici ceramiche, in considerazione della crescente importanza che essa ha assunto negli ultimi anni per la valutazione dei costi relativi al ciclo di vita. Quando si parla di durabilità si pensa all’essere durevole nel tempo e quest'ultimo è influenzato da una molteplicità di fattori che possono portare ad una condizione di degrado, legati sia all’ambiente in cui il materiale vive, sia all’invecchiamento del materiale stesso, rendendo la stima della durata un’operazione estremamente complessa. Il percorso di ricerca, partendo da una valutazione delle diverse metodologie normate e procedure presenti in letteratura, si è orientato verso l’analisi dei metodi rivolti alla valutazione della durabilità dei trattamenti superficiali, così da poter condurre un confronto sperimentale, tra i risultati conseguiti con l’applicazione delle metodologie proposte dalle norme ed il comportamento effettivo in servizio. Nella ricerca è stato importante definire i fattori che determinano i meccanismi di degrado e la modalità con cui applicarli in laboratorio.
Resumo:
“E’ vero che stiamo parlando di sport americani (dove i soldi sembrano non finire mai) ed è altrettanto vero che stiamo per inoltrarci nel mondo della National Basketball Association (la seconda Lega al mondo per introiti dietro alla sola National Football League), ma le cifre del nuovo contratto televisivo portato a casa dal commissioner Adam Silver hanno dell’incredibile.” ... “E’ d’obbligo al fine del proseguo di questo lavoro introdurre il PER (il Player Efficiency Rating). Stiamo parlando di quello che al momento è considerato dalla maggioranza il più avanzato strumento di valutazione delle prestazioni di un giocatore durante l’arco di una partita e quindi di una stagione.” ... “Se abbiamo standardizzato rispetto ai minuti giocati, al numero di possessi, ecc… perché non standardizzare anche rispetto allo stipendio percepito dal giocatore stesso?” ... “Da tutto ciò… comincia la mia idea.”
Resumo:
L’ingegneria tissutale rappresenta oggi una delle tematiche più importanti di ricerca in ambito medico-ingegneristico. Questa disciplina si pone come obiettivo di far fronte alla mancanza, sostituzione o riparazione di tessuto attraverso lo sviluppo di scaffolds opportunamente ottimizzati. I polimeri naturali rappresentano una classe di materiali particolarmente indicata per soddisfare i requisiti richiesti soprattutto per la biocompatibilità che spesso li caratterizza. La gelatina è uno dei materiali che si presta alla realizzazione di scaffolds innovativi ad altissima biocompatibilità nonostante le scarse proprietà meccaniche e la facilità di degradazione. Proprio per questo è possibile migliorarne le prestazioni attraverso l’ottimizzazione di processi di blending con altri polimeri, in questo caso le nanofibre di cellulosa e l’impiego di agenti reticolanti. Lo scopo di questo lavoro di tesi, svolto presso l’Istituto di Scienza e Tecnologia dei Materiali Ceramici (ISTEC-CNR) di Faenza, è la progettazione, lo sviluppo e la caratterizzazione di scaffolds polimerici porosi a base di gelatina e nanocellulosa opportunamente reticolati per un ampio range di applicazioni nell’ambito dell’ingegneria tissutale. A questo scopo, sono stati sviluppati cinque dispositivi 3D porosi, ottenuti tramite liofilizzazione, che differiscono per il tipo di processo reticolante applicato. Il progetto ha previsto una prima fase di ricerca bibliografica che ha permesso di conoscere lo stato dell’arte sull’argomento trattato. Si è potuto così procedere alla realizzazione degli scaffolds e a una prima caratterizzazione di carattere chimico-fisico e morfologico. A questo punto, sulla base dei dati ottenuti, sono stati scelti i campioni su cui effettuare ulteriori caratterizzazioni meccaniche. In ultimo, sono stati analizzati e rielaborati tutti i risultati.
Resumo:
Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.
Resumo:
In today’s big data world, data is being produced in massive volumes, at great velocity and from a variety of different sources such as mobile devices, sensors, a plethora of small devices hooked to the internet (Internet of Things), social networks, communication networks and many others. Interactive querying and large-scale analytics are being increasingly used to derive value out of this big data. A large portion of this data is being stored and processed in the Cloud due the several advantages provided by the Cloud such as scalability, elasticity, availability, low cost of ownership and the overall economies of scale. There is thus, a growing need for large-scale cloud-based data management systems that can support real-time ingest, storage and processing of large volumes of heterogeneous data. However, in the pay-as-you-go Cloud environment, the cost of analytics can grow linearly with the time and resources required. Reducing the cost of data analytics in the Cloud thus remains a primary challenge. In my dissertation research, I have focused on building efficient and cost-effective cloud-based data management systems for different application domains that are predominant in cloud computing environments. In the first part of my dissertation, I address the problem of reducing the cost of transactional workloads on relational databases to support database-as-a-service in the Cloud. The primary challenges in supporting such workloads include choosing how to partition the data across a large number of machines, minimizing the number of distributed transactions, providing high data availability, and tolerating failures gracefully. I have designed, built and evaluated SWORD, an end-to-end scalable online transaction processing system, that utilizes workload-aware data placement and replication to minimize the number of distributed transactions that incorporates a suite of novel techniques to significantly reduce the overheads incurred both during the initial placement of data, and during query execution at runtime. In the second part of my dissertation, I focus on sampling-based progressive analytics as a means to reduce the cost of data analytics in the relational domain. Sampling has been traditionally used by data scientists to get progressive answers to complex analytical tasks over large volumes of data. Typically, this involves manually extracting samples of increasing data size (progressive samples) for exploratory querying. This provides the data scientists with user control, repeatable semantics, and result provenance. However, such solutions result in tedious workflows that preclude the reuse of work across samples. On the other hand, existing approximate query processing systems report early results, but do not offer the above benefits for complex ad-hoc queries. I propose a new progressive data-parallel computation framework, NOW!, that provides support for progressive analytics over big data. In particular, NOW! enables progressive relational (SQL) query support in the Cloud using unique progress semantics that allow efficient and deterministic query processing over samples providing meaningful early results and provenance to data scientists. NOW! enables the provision of early results using significantly fewer resources thereby enabling a substantial reduction in the cost incurred during such analytics. Finally, I propose NSCALE, a system for efficient and cost-effective complex analytics on large-scale graph-structured data in the Cloud. The system is based on the key observation that a wide range of complex analysis tasks over graph data require processing and reasoning about a large number of multi-hop neighborhoods or subgraphs in the graph; examples include ego network analysis, motif counting in biological networks, finding social circles in social networks, personalized recommendations, link prediction, etc. These tasks are not well served by existing vertex-centric graph processing frameworks whose computation and execution models limit the user program to directly access the state of a single vertex, resulting in high execution overheads. Further, the lack of support for extracting the relevant portions of the graph that are of interest to an analysis task and loading it onto distributed memory leads to poor scalability. NSCALE allows users to write programs at the level of neighborhoods or subgraphs rather than at the level of vertices, and to declaratively specify the subgraphs of interest. It enables the efficient distributed execution of these neighborhood-centric complex analysis tasks over largescale graphs, while minimizing resource consumption and communication cost, thereby substantially reducing the overall cost of graph data analytics in the Cloud. The results of our extensive experimental evaluation of these prototypes with several real-world data sets and applications validate the effectiveness of our techniques which provide orders-of-magnitude reductions in the overheads of distributed data querying and analysis in the Cloud.
Resumo:
This article describes the design and implementation of computer-aided tool called Relational Algebra Translator (RAT) in data base courses, for the teaching of relational algebra. There was a problem when introducing the relational algebra topic in the course EIF 211 Design and Implementation of Databases, which belongs to the career of Engineering in Information Systems of the National University of Costa Rica, because students attending this course were lacking profound mathematical knowledge, which led to a learning problem, being this an important subject to understand what the data bases search and request do RAT comes along to enhance the teaching-learning process.It introduces the architectural and design principles required for its implementation, such as: the language symbol table, the gramatical rules and the basic algorithms that RAT uses to translate from relational algebra to SQL language. This tool has been used for one periods and has demonstrated to be effective in the learning-teaching process. This urged investigators to publish it in the web site: www.slinfo.una.ac.cr in order for this tool to be used in other university courses.
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
Fault tolerance allows a system to remain operational to some degree when some of its components fail. One of the most common fault tolerance mechanisms consists on logging the system state periodically, and recovering the system to a consistent state in the event of a failure. This paper describes a general fault tolerance logging-based mechanism, which can be layered over deterministic systems. Our proposal describes how a logging mechanism can recover the underlying system to a consistent state, even if an action or set of actions were interrupted mid-way, due to a server crash. We also propose different methods of storing the logging information, and describe how to deploy a fault tolerant master-slave cluster for information replication. We adapt our model to a previously proposed framework, which provided common relational features, like transactions with atomic, consistent, isolated and durable properties, to NoSQL database management systems.
Resumo:
Call Level Interfaces (CLI) play a key role in business tiers of relational and on some NoSQL database applications whenever a fine tune control between application tiers and the host databases is a key requirement. Unfortunately, in spite of this significant advantage, CLI are low level API, this way not addressing high level architectural requirements. Among the examples we emphasize two situations: a) the need to decouple or not to decouple the development process of business tiers from the development process of application tiers and b) the need to automatically adapt business tiers to new business and/or security needs at runtime. To tackle these CLI drawbacks, and simultaneously keep their advantages, this paper proposes an architecture relying on CLI from which multi-purpose business tiers components are built, herein referred to as Adaptable Business Tier Components (ABTC). Beyond the reference architecture, this paper presents a proof of concept based on Java and Java Database Connectivity (an example of CLI).