982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database


Relevância:

40.00% 40.00%

Publicador:

Resumo:

I principi Agile, pubblicati nell’omonimo Manifesto più di 20 anni fa, al giorno d’oggi sono declinati in una moltitudine di framework: Scrum, XP, Kanban, Lean, Adaptive, Crystal, etc. Nella prima parte della tesi (Capitoli 1 e 2) sono stati descritti alcuni di questi framework e si è analizzato come un approccio Agile è utilizzato nella pratica in uno specifico caso d’uso: lo sviluppo di una piattaforma software a supporto di un sistema di e-grocery da parte di un team di lab51. Si sono verificate le differenze e le similitudini rispetto alcuni metodi Agile formalizzati in letteratura spiegando le motivazioni che hanno portato a differenziarsi da questi framework illustrando i vantaggi per il team. Nella seconda parte della tesi (Capitoli 3 e 4) è stata effettuata un’analisi dei dati raccolti dal supermercato online negli ultimi anni con l’obiettivo di migliorare l’algoritmo di riordino. In particolare, per prevedere le vendite dei singoli prodotti al fine di avere degli ordini più adeguati in quantità e frequenza, sono stati studiati vari approcci: dai modelli statistici di time series forecasting, alle reti neurali, fino ad una metodologia sviluppata ad hoc.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questa tesi approfondiamo l’utilizzo del framework Arrowhead per creare una demo di un sistema per l’automazione IoT industriale. Il framework fornisce dei core specifici per il controllo di un sistema industriale nell’ottica dell’industria 4.0. Nello specifico prendiamo in analisi i tre core principali di Arrowhead, più un quarto, il Choreographer, interessante perchè fornisce servizi non comuni, ma molto utili, per la gestione di sistemi industriali. La demo è stata suddivisa in livelli per permettere un’analisi dettagliata dei vantaggi e delle scelte implementative che l’integrazione dei vari core apporta alla demo. Si è scelto, inoltre, di analizzare separatamente le scelte teoriche e pratiche che sono state effettuate nello sviluppo della demo. In questa tesi, quindi, analizziamo l’integrazione del framework Arrowhead all’interno di un sistema di IoT industriale e porteremo alla luce i vantaggi del suo utilizzo e per quale motivo non risulta essere competitivo nel suo mercato di appartenenza.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Industria 4.0 ha coinvolto il settore agroalimentare introducendo nuove strategie di tracciabilità, a favore della sostenibilità e della sicurezza alimentare. L’Organizzazione Internazionale della Vigna e del Vino pone tra gli obiettivi per il 2024 la transizione digitale della filiera, così da avere una tracciabilità trasparente e affidabile. Questo fornisce un vantaggio ai produttori e ai consumatori che dispongono di maggiori informazioni quantitative e qualitative del prodotto. I sistemi di tracciabilità sono integrati nella supply chain aumentandone la resilienza; tuttavia, la maggior parte degli ERP in commercio ricostruiscono la tracciabilità a posteriori: dal codice lotto finale si ricompone tutto il processo. Per monitorare costantemente la filiera ed incrementarne la trasparenza si stanno integrando nuove tecnologie alla tracciabilità, come l’intelligenza artificiale e la blockchain. Obiettivo di questa tesi è la progettazione di un sistema di tracciabilità blockchain. Pertanto, si introduce alla tracciabilità e alla blockchain descrivendo i principali contributi in letteratura che propongono approcci e strategie, evidenziando vantaggi e sfide future. Poi, si presenta il caso Moncaro, cooperativa agricola che ha cantine e vigneti nel territorio marchigiano, analizzando il processo di vinificazione in bianco dal punto di vista del flusso fisico e informativo, rispettivamente tramite BPMN e Relationship chart. Ai fini della modellazione e della scelta dei dati da inserire in tracciabilità, si analizzano le informazioni registrate negli ERP sviluppati da Apra s.p.a., software house, di cui Moncaro fruisce. Quindi, si propone la formulazione di un algoritmo in pseudocodice che permette di collegare sequenzialmente le attività, così, da ottenere la tracciabilità real time e un’architettura che può gestire tutte le informazioni della supply chain. Infine, si è implementato uno scenario produttivo reale, mediante l’architettura di database a grafo di Neo4j AuraDB

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La maggiore consapevolezza dell’importanza dello sfruttamento di risorse ha contribuito a favorire una transizione da un modello di economia lineare ad uno circolare, basato sulla chiusura dei cicli di risorse e l’allungamento del ciclo di vita di un prodotto o servizio. La simbiosi Industriale si colloca in questo contesto come strategia per l’ottimizzazione delle risorse e prevede il trasferimento di scarti e sottoprodotti da un’azienda output ad una input, che le utilizzerà come risorse per i loro processi. L’instaurazione di rapporti di simbiosi industriale non è così immediata e necessita di un ente esterno che faciliti la collaborazione tra le aziende e fornisca supporto tecnico per la sua implementazione. In Italia ENEA rappresenta il principale ente di riferimento per l’implementazione di progetti di simbiosi industriale e ha sviluppato un ecosistema di strumenti al fine di guidare le aziende all’interno di percorsi di simbiosi industriale. L’obiettivo di questo lavoro è quello di formulare una metodologia per la valutazione preliminare di potenziali sinergie a livello territoriale, utilizzando dati storici riguardanti sinergie e presentare uno strumento applicativo basato su di essa. La prima parte è del lavoro è dedicata ad una ricerca bibliografica sui temi della simbiosi industriale, evidenziando vantaggi e il ruolo di ENEA. Di seguito verrà illustrata la metodologia sviluppata con i suoi step operativi, il cui obiettivo è quello di valutare la presenza di potenziali sinergie a livello territoriale, partendo da un database di aziende classificate per codici Ateco e uno di sinergie già attivate in precedenza. Infine, verrà presentato lo strumento di lavoro Microsoft Excel, programmato in VBA, che permette l’applicazione della metodologia. Per mostrarne il funzionamento si utilizzano dati estratti dalla banca dati AIDA per le aziende e dati dai database MAESTI e IS-DATA per le sinergie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE: Fatty liver disease (FLD) is an increasing prevalent disease that can be reversed if detected early. Ultrasound is the safest and ubiquitous method for identifying FLD. Since expert sonographers are required to accurately interpret the liver ultrasound images, lack of the same will result in interobserver variability. For more objective interpretation, high accuracy, and quick second opinions, computer aided diagnostic (CAD) techniques may be exploited. The purpose of this work is to develop one such CAD technique for accurate classification of normal livers and abnormal livers affected by FLD. METHODS: In this paper, the authors present a CAD technique (called Symtosis) that uses a novel combination of significant features based on the texture, wavelet transform, and higher order spectra of the liver ultrasound images in various supervised learning-based classifiers in order to determine parameters that classify normal and FLD-affected abnormal livers. RESULTS: On evaluating the proposed technique on a database of 58 abnormal and 42 normal liver ultrasound images, the authors were able to achieve a high classification accuracy of 93.3% using the decision tree classifier. CONCLUSIONS: This high accuracy added to the completely automated classification procedure makes the authors' proposed technique highly suitable for clinical deployment and usage.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Knowing exactly where a mobile entity is and monitoring its trajectory in real-time has recently attracted a lot of interests from both academia and industrial communities, due to the large number of applications it enables, nevertheless, it is nowadays one of the most challenging problems from scientific and technological standpoints. In this work we propose a tracking system based on the fusion of position estimations provided by different sources, that are combined together to get a final estimation that aims at providing improved accuracy with respect to those generated by each system individually. In particular, exploiting the availability of a Wireless Sensor Network as an infrastructure, a mobile entity equipped with an inertial system first gets the position estimation using both a Kalman Filter and a fully distributed positioning algorithm (the Enhanced Steepest Descent, we recently proposed), then combines the results using the Simple Convex Combination algorithm. Simulation results clearly show good performance in terms of the final accuracy achieved. Finally, the proposed technique is validated against real data taken from an inertial sensor provided by THALES ITALIA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada na Universidade do Minho com vista à obtenção do grau de Doutor em Tecnologias e Sistemas de Informação (Engenharia e Gestão de Sistemas de Informação)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Workflows have been successfully applied to express the decomposition of complex scientific applications. However the existing tools still lack adequate support to important aspects namely, decoupling the enactment engine from tasks specification, decentralizing the control of workflow activities allowing their tasks to run in distributed infrastructures, and supporting dynamic workflow reconfigurations. We present the AWARD (Autonomic Workflow Activities Reconfigurable and Dynamic) model of computation, based on Process Networks, where the workflow activities (AWA) are autonomic processes with independent control that can run in parallel on distributed infrastructures. Each AWA executes a task developed as a Java class with a generic interface allowing end-users to code their applications without low-level details. The data-driven coordination of AWA interactions is based on a shared tuple space that also enables dynamic workflow reconfiguration. For evaluation we describe experimental results of AWARD workflow executions in several application scenarios, mapped to the Amazon (Elastic Computing EC2) Cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Applications refactorings that imply the schema evolution are common activities in programming practices. Although modern object-oriented databases provide transparent schema evolution mechanisms, those refactorings continue to be time consuming tasks for programmers. In this paper we address this problem with a novel approach based on aspect-oriented programming and orthogonal persistence paradigms, as well as our meta-model. An overview of our framework is presented. This framework, a prototype based on that approach, provides applications with aspects of persistence and database evolution. It also provides a new pointcut/advice language that enables the modularization of the instance adaptation crosscutting concern of classes, which were subject to a schema evolution. We also present an application that relies on our framework. This application was developed without any concern regarding persistence and database evolution. However, its data is recovered in each execution, as well as objects, in previous schema versions, remain available, transparently, by means of our framework.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper consists in the characterization of medium voltage (MV) electric power consumers based on a data clustering approach. It is intended to identify typical load profiles by selecting the best partition of a power consumption database among a pool of data partitions produced by several clustering algorithms. The best partition is selected using several cluster validity indices. These methods are intended to be used in a smart grid environment to extract useful knowledge about customers’ behavior. The data-mining-based methodology presented throughout the paper consists in several steps, namely the pre-processing data phase, clustering algorithms application and the evaluation of the quality of the partitions. To validate our approach, a case study with a real database of 1.022 MV consumers was used.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfilment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertation presented to obtain the degree of Doctor in Electrical and Computer Engineering, specialization on Collaborative Enterprise Networks

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o aumento de plataformas móveis disponíveis no mercado e com o constante incremento na sua capacidade computacional, a possibilidade de executar aplicações e em especial jogos com elevados requisitos de desempenho aumentou consideravelmente. O mercado dos videojogos tem assim um cada vez maior número de potenciais clientes. Em especial, o mercado de jogos massive multiplayer online (MMO) tem-se tornado muito atractivo para as empresas de desenvolvimento de jogos. Estes jogos suportam uma elevada quantidade de jogadores em simultâneo que podem estar a executar o jogo em diferentes plataformas e distribuídos por um "mundo" de jogo extenso. Para incentivar a exploração desse "mundo", distribuem-se de forma inteligente pontos de interesse que podem ser explorados pelo jogador. Esta abordagem leva a um esforço substancial no planeamento e construção desses mundos, gastando tempo e recursos durante a fase de desenvolvimento. Isto representa um problema para as empresas de desenvolvimento de jogos, e em alguns casos, e impraticável suportar tais custos para equipas indie. Nesta tese e apresentada uma abordagem para a criação de mundos para jogos MMO. Estudam-se vários jogos MMO que são casos de sucesso de modo a identificar propriedades comuns nos seus mundos. O objectivo e criar uma framework flexível capaz de gerar mundos com estruturas que respeitam conjuntos de regras definidas por game designers. Para que seja possível usar a abordagem aqui apresentada em v arias aplicações diferentes, foram desenvolvidos dois módulos principais. O primeiro, chamado rule-based-map-generator, contem a lógica e operações necessárias para a criação de mundos. O segundo, chamado blocker, e um wrapper à volta do módulo rule-based-map-generator que gere as comunicações entre servidor e clientes. De uma forma resumida, o objectivo geral e disponibilizar uma framework para facilitar a geração de mundos para jogos MMO, o que normalmente e um processo bastante demorado e aumenta significativamente o custo de produção, através de uma abordagem semi-automática combinando os benefícios de procedural content generation (PCG) com conteúdo gráfico gerado manualmente.