999 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF
Resumo:
El problema de selección de requisitos (o Next Release Problem, NRP) consiste en seleccionar el subconjunto de requisitos que se va a desarrollar en la siguiente versión de una aplicación software. Esta selección se debe hacer de tal forma que maximice la satisfacción de las partes interesadas a la vez que se minimiza el esfuerzo empleado en el desarrollo y se cumplen un conjunto de restricciones. Trabajos recientes han abordado la formulación bi-objetivo de este problema usando técnicas exactas basadas en resolutores SAT y resolutores de programación lineal entera. Ambos se enfrentan a dificultades cuando las instancias tienen un gran tamaño, sin embargo la programación lineal entera (ILP) parece ser más efectiva que los resolutores SAT. En la práctica, no es necesario calcular todas las soluciones del frente de Pareto (que pueden llegar a ser muchas) y basta con obtener un buen número de soluciones eficientes bien distribuidas en el espacio objetivo. Las estrategias de búsqueda basadas en ILP que se han utilizado en el pasado para encontrar un frente bien distribuido en cualquier instante de tiempo solo buscan soluciones soportadas. En este trabajo proponemos dos estrategias basadas en ILP que son capaces de encontrar el frente completo con suficiente tiempo y que, además, tienen la propiedad de aportar un conjunto de soluciones bien distribuido en el frente objetivo en cualquier momento de la búsqueda.
Resumo:
Performance and scalability of model transformations are becoming prominent topics in Model-Driven Engineering. In previous works we introduced LinTra, a platform for executing model transformations in parallel. LinTra is based on the Linda model of a coordination language and is intended to be used as a middleware where high-level model transformation languages are compiled. In this paper we present the initial results of our analyses on the scalability of out-place model-to-model transformation executions in LinTra when the models and the processing elements are distributed over a set of machines.
Resumo:
Generating sample models for testing a model transformation is no easy task. This paper explores the use of classifying terms and stratified sampling for developing richer test cases for model transformations. Classifying terms are used to define the equivalence classes that characterize the relevant subgroups for the test cases. From each equivalence class of object models, several representative models are chosen depending on the required sample size. We compare our results with test suites developed using random sampling, and conclude that by using an ordered and stratified approach the coverage and effectiveness of the test suite can be significantly improved.
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.
Resumo:
Lo sviluppo sistematico di modelli subject-specific computerizzati per l’analisi di trattamenti personalizzati è attualmente una realtà. Infatti di recente sono state sviluppate molte tecnologie per la creazione di modelli virtuali ad elementi finiti, che ricreano accuratamente le geometrie specifiche del soggetto e tutte le proprietà fondamentali per ricreare le capacità motorie, basandosi su analisi d’immagine quantitative. Tuttavia, per determinare le forze agenti sul sistema, necessitiamo di una intera analisi di cammino, solitamente in combinazione con uno studio di simulazione di dinamica inversa. In questo elaborato, mi propongo di illustrare i procedimenti per creare un modello subject-specific partendo da dati di imaging (da tomografie computerizzate) di un paziente reale affetto da displasia congenita dell’anca, e gli strumenti che ci permettono di effettuare le simulazioni del modello, al fine di ottenere informazioni quantitative circa le grandezze che governano la dinamica del cammino del paziente. Il corpi rigidi del modello scheletrico saranno costruiti mediante la tecnica della segmentazione 3D, e verranno utilizzati per costruire un sistema articolato dotato di attuatori muscolo-tendinei e giunti articolari a due o tre gradi di libertà. Per conseguire questo obiettivo si farà uso del software, “NMSBuilder”, per poi inserirlo in un programma di simulazione di dinamica del movimento, “OpenSim”, che ci permetterà di calcolare forze muscolari, forze di contatto e momenti articolari del modello. Questi risultati saranno di fondamentale importanza per studiare riabilitazioni ad hoc per pazienti affetti da DCA che devono essere sottoposti ad artroprotesi totale. Lo scopo di questo studio sarà anche quello di analizzare la sensibilità delle previsioni dei modelli specifici durante la deambulazione tenendo conto delle incertezze nell'identificazione delle posizioni dei body-landmarks, della massima tensione muscolare e della geometria muscolo-tendinea.
Resumo:
Oslo, capitale della Norvegia, sta sperimentando un’improvvisa crescita della popolazione e secondo le stime fornite da Statistics Norway si prevede un aumento di 200 000 abitanti entro il 2040. La crescita della popolazione comporterà un rilevante aumento di domanda di acqua e, insieme ad altri fattori quali l’età delle infrastrutture e i cambiamenti climatici, sarà responsabile di una notevole pressione sulle infrastrutture idriche presenti. In risposta alla necessità di tempestivi cambiamenti, il gestore del servizio idrico della città (Oslo VAV) ha deciso di finanziare progetti per migliorare la robustezza delle infrastrutture idriche. Il lavoro di tesi si inserisce all’interno del progetto E3WDM, istituito nel 2005 con lo scopo di definire una gestione più efficiente della risorsa idrica di Oslo. L’obiettivo generale della tesi è la creazione di un modello metabolico attraverso il software UWOT (Makropoulos et al., 2008) con lo scopo di rappresentare i consumi idrici di due tipiche tipologie abitative nella città di Oslo. L’innovazione di questo studio consiste nella definizione e nella modellazione della domanda idrica all’interno delle abitazioni ad un livello di dettaglio molto elevato. Il nuovo approccio fornito da UWOT consente la simulazione di differenti strategie di intervento e la successiva gestione ottimale della risorsa idrica in grado di minimizzare i consumi di acqua, di energia e i costi, compatibilmente con la domanda idrica richiesta. Il lavoro di tesi comprende: -La descrizione del software UWOT, in particolare lo scopo del modello, l’innovativo approccio adottato, la struttura e il procedimento per creare un modello del sistema idrico urbano. -La definizione dei dati richiesti per la simulazione dei consumi idrici all’interno delle abitazioni nella città di Oslo e i metodi utilizzati per raccoglierli -L’applicazione del modello UWOT per la definizione dei trend di consumi idrici e la successiva analisi dei risultati
Resumo:
Semantic relations are an important element in the construction of ontology-based linguistic resources and models of problem domains. Nevertheless, they remain under-specified. This is a pervasive problem in both Software Engineering and Artificial Intelligence. Thus, we find semantic links that can have multiple interpretations, abstractions that are not enough to represent the relation richness of problem domains, and even poorly structured taxonomies. However, if provided with precise semantics, some of these problems can be avoided, and meaningful operations can be performed on them that can be an aid in the ontology construction process. In this paper we present some insightful issues about the representation of relations. Moreover, the initiatives aiming to provide relations with clear semantics are explained and the inclusion of their core ideas as part of a methodology for the development of ontology-based linguistic resources is proposed.
Resumo:
Semantic relations are an important element in the construction of ontologies and models of problem domains. Nevertheless, they remain fuzzy or under-specified. This is a pervasive problem in software engineering and artificial intelligence. Thus, we find semantic links that can have multiple interpretations in wide-coverage ontologies, semantic data models with abstractions that are not enough to capture the relation richness of problem domains, and improperly structured taxonomies. However, if relations are provided with precise semantics, some of these problems can be avoided, and meaningful operations can be performed on them. In this paper we present some insightful issues about the modeling, representation and usage of relations including the available taxonomy structuring methodologies as well as the initiatives aiming to provide relations with precise semantics. Moreover, we explain and propose the control of relations as a key issue for the coherent construction of ontologies.
Resumo:
Se desarrolló un Sistema de Información Geográfica (SIG) automatizado para el análisis espacial de las capturas, del esfuerzo pesquero, de la abundancia estimada de especies mediante el índice de Captura por Unidad de Esfuerzo (CPUE) y de su relación con algunos factores ambientales (profundidad, tipo de fondo y temperatura superficial del mar) de la esquería artesanal asentada en la península de Araya, Estado Sucre, República de Venezuela. Este programa automatizado, denominado SIGPAR, fue desarrollado utilizando el lenguaje Microsoft® Visual Basic 6 y la respectiva librería del software SIG Idrisi®, a cuyo menú principal fue agregado un nuevo módulo que facilita la interacción con los usuarios.Palabras claves: Sistema de Información Geográfica (SIG); pesquería artesanal; Península de Araya, Venezuela.AbstractA Geographic Information System (GIS) application software was developed for the spatial analysis of fishing catches, the estimated abundance of species by the Catch per Unit Effort (CPUE) index, and its relationship with various environmental factors (depth, type of bottom, and surface temperature of the sea) of the artisanal fishery based in the Peninsula of Araya, State of Sucre, in Venezuela. This application, named SIGPAR, was developed using Microsoft® Visual Basic 6 and IDRISI®. A menu button was added to the GIS software IDRISI® for convenience of users.Key Words: Geographic Information System (GIS), Artisanal Fisheries, Araya, Venezuela.
Resumo:
La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.
Resumo:
Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.
Resumo:
Lo scopo di questa tesi è quello di verificare il corretto dimensionamento dei cuscinetti e delle guide lineari di un gruppo all’interno di una macchina automatica brevettata e realizzata da Manz Srl, azienda in collaborazione con la quale è stato svolto il progetto. La macchina automatica in esame è parte di una linea di produzione di batterie rettangolari a partire da nastri di materia prima e impiega l’innovativo processo di wound stacking. Per eseguire la verifica dei componenti è stato necessario effettuare una simulazione dinamica con il software MSC Adams, grazie al quale si sono potute calcolare le reazioni vincolari. In parallelo al modello Adams, è stato realizzato anche un modello MATLAB, con cui poter confrontare i risultati del software multibody per validarli. Stabiliti i periodi previsti di manutenzione della linea e un coefficiente di sicurezza richiesto, si sono individuati i componenti che non rispettavano le specifiche dei progettisti. Alla fine della tesi si propongono anche delle soluzioni per la sostituzione di alcuni componenti.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Lo scopo del presente elaborato è ottenere dati grezzi dai maggiori offerwalls affinché si renda possibile elaborarli ed analizzarli per metterli a disposizione delle figure che si occupano di account management di un potenziale Ad Network quale è MyAppFree. Il primo Ad Network competitor a venire integrato nel presente tool di Business Intelligence è OfferToro, seguito da AdGem, il quale è attualmente in fase di integrazione. Prima di presentare i risultati del tool, a cui è stato dedicato l’ultimo capitolo dell’elaborato, sono stati approfonditi ed analizzati ampiamente i concetti fondamentali per la comprensione del progetto insieme agli strumenti utilizzati per la costituzione dell’architettura software. Successivamente, viene presentata l'architettura dei singoli microservizi oltre a quella sistemistica generale, la quale tratta come le parti che compongono iBiT, interagiscono tra loro. Infine, l’ultima parte della trattazione è dedicata al funzionamento del Front End Side per la figura account manager, che rappresenta l’utente finale del progetto. Unita alle analisi dei risultati ottenuti tramite una fase di benchmark testing, metrica che misura un insieme ripetibile di risultati quantificabili che serve come punto di riferimento perché prodotti e servizi possano essere confrontati. Lo scopo dei risultati dei test di benchmark è quello di confrontare le versioni presenti e future del software tramite i rispettivi benchmark.