816 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La literatura sobre ingeniería del software contiene numerosas propuestas para sistematizar las operaciones de diseño y ayudar en la toma de decisiones relacionadas con las soluciones a los problemas. Este artículo propone un marco conceptual para justificar la técnica de arriba hacia abajo que se sigue en el diseño tecnológico. El punto de partida es el enunciado de un problema en su versión de conjetura inicial, esto es, una hipótesis, y consta de una fase inicial que es esencialmente del ámbito del problema, y una segunda fase que es esencialmente del dominio de la solución. La fase del dominio del problema aborda una técnica para expresar el enunciado del problema con formato de una definición correcta y exacta, contextualizada en un dominio de referencia que es un modelo del problema y basada en una estructura sintáctica preestablecida. Esta fase produce una especificación formal del problema con formato de una expresión lógica o matemática que refiere el problema a un modelo y que denota, desde un enfoque externo al problema, los objetivos que se persigue que la solución satisfaga. La fase del dominio de la solución obtiene una especificación estructural de una solución al problema, que consiste en un árbol descriptor de la jerarquía de los módulos que componen la estructura y un grafo de las relaciones entre módulos, es decir, de la organización de los módulos. El fundamento del proceso de tomar decisiones de arriba hacia abajo consiste en clasificar las acciones que conforman el método de diseño y en establecer una ordenación entre las clases de acciones encontradas. Se propone un caso de estudio sencillo para poner de relieve el alcance de esta propuesta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

High dependability, availability and fault-tolerance are open problems in Service-Oriented Architecture (SOA). The possibility of generating software applications by integrating services from heterogeneous domains, in a reliable way, makes worthwhile to face the challenges inherent to this paradigm. In order to ensure quality in service compositions, some research efforts propose the adoption of verification techniques to identify and correct errors. In this context, exception handling is a powerful mechanism to increase SOA quality. Several research works are concerned with mechanisms for exception propagation on web services, implemented in many languages and frameworks. However, to the extent of our knowledge, no works found evaluates these mechanisms in SOA with regard to the .NET framework. The main contribution of this paper is to evaluate and to propose exception propagation mechanisms in SOA to applications developed within the .NET framework. In this direction, this work: (i)extends a previous study, showing the need to propose a solution to the exception propagation in SOA to applications developed in .NET, and (ii) show a solution, based in model obtained from the results found in (i) and that will be applied in real cases through of faults injections and AOP techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’idea di questa tesi è nata dalla volontà di verificare il lavoro svolto come oggetto di studio di illustri scienziati che si prefissero come traguardo la risoluzione di questo problema, che aveva come obiettivo la comprensione, la previsione e l’ottimizzazione dei fenomeni legati allo scambio termico convettivo attraverso le svariate geometrie di superficie. Gli steps per il raggiungimento dello scopo oggetto di questa tesi, pertanto, possono essere così riassunti: 1. definizione di una corretta metodologia di calcolo dei campi fluidodinamico e termico, per un condotto piano infinitamente lungo, in condizioni di completo sviluppo; 2. dimostrazione della fattibilità di un’ottimizzazione di tale geometria, tramite l’utilizzo del software Mathematica; 3. trovare l’andamento del numero di Nusselt e verificare se il risultato ottenuto coincide con il risultato che si trova in letteratura relativamente al caso studiato. Da quanto ottenuto mediante i calcoli realizzati con il software Mathematica possiamo concludere che l’andamento del numero di Nusselt, ottenuto tenendo conto delle condizioni al contorno di tipo T in un condotto con pareti piane infinitamente lungo, ci dimostrano che i calcoli precedentemente effettuati sono corretti in quanto corrispondo ai risultati presenti in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato di tesi si concretizza in un inquadramento generale relativo alle emissioni odorigene: cosa sono, i riferimenti normativi, come si misurano. Si è poi fatto riferimento a un caso reale, ovvero un impianto operante nella lavorazione dei semi oleosi che ha subito una modifica della propria configurazione impiantistica. Le emisisoni odorigene sono state modellate, mediante l'utilizzo del software Calpuff, in relazione a due stati: prima e dopo la modifica. Questo ha permesso di fare un confronto in termini di impatto sull'ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente documento contiene información concerniente al proyecto de investigación de las carreras de Técnico en Sistemas Informáticos, realizado por docentes en colaboración con los estudiantes de ITCA-FEPADE Centro Regional de San Miguel, con el tema “DISEÑO E IMPLEMENTACIÓN DE UN SOFTWARE PARA LA ADMINISTRACIÓN DE EXPEDIENTES DE PACIENTES EN LA UNIDAD DE SALUD DE PERQUÍN, DEPARTAMENTO DE MORAZÁN”. El objetivo principal era construir un software capaz de agilizar los procesos administrativos y de consultas en dicha Unidad de Salud. En este documento se encuentra contenida la siguiente temática: El planteamiento del problema de la investigación en el cual se define de forma detallada la situación o problema a resolver con construcción del software; Los antecedentes de la Unidad de Salud que forman parte de la investigación preliminar y documentación necesaria para la realización del proyecto; La justificación del problema que responde a las preguntas del porqué de la investigación, quiénes son los beneficiarios directos e indirectos con este tipo de investigación. Se plantea también la hipótesis, la cual constituye uno de los ejes principales de toda investigación. Está plasmada en ella la pregunta a la cual se le dará respuesta con el desarrollo del proyecto. En el marco teórico está plasmada la teoría base y que fundamenta toda investigación, la cual se ha tomado como referencia para enriquecer y realzar el proyecto. La metodología constituye el mapa a seguir, los lineamientos y procedimientos necesarios para alcanzar los resultados deseados con el proyecto. Se presenta además la conclusión y recomendación, las cuales de forma descrita nos dan la pauta sobre aquellos conocimientos a los cuales se llegaron y así mismo las respuestas a cómo debería dársele seguimiento y explotación a la tecnología de tal forma que se le dé cumplimiento a uno de los objetivos del uso de tecnología: “Hacer productiva cualquier actividad en el quehacer cotidiano de la sociedad

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Iniciación a la creación y diseño de un portfolio digital a través del software Adobe Muse y el Estudio de caso de varios sitios web de reconocidos artistas visuales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tecnología conocida como Microsoft Visual Studio Tools for Office (VSTO) ofrece la posibilidad de integrar Office con la plataforma .NET de forma que podamos implementar aplicaciones .NET con la apariencia de documentos de Microsoft Office. La utilización de la tecnología VSTO con hojas de cálculo para la creación de herramientas de simulación es un campo interesante por la familiaridad que las hojas de cálculo ofrecen a cualquier usuario. Cuando se desarrolla un complemento para un simulador, dicho complemento suele ser muy específico de un simulador concreto, por lo que los elementos desarrollados en estos proyectos no es posible reutilizarlos con otro simulador. Esta es la motivación que lleva a crear este proyecto: facilitar la creación de extensiones para Excel adaptables a distintos tipos de simulador, de manera que sea posible reutilizar las extensiones y sus elementos constituyentes.Para eso, se ha desarrollado un framework para la creación de extensiones Excel con VSTO que puedan ser fácilmente adaptables a diferentes tipos de simuladores. Los principales puntos que toca este framework son: - Elementos comunes a todo proyecto de simuladores. Se han ofrecido precargados un conjunto de elementos que son comunes en el desarrollo de estas aplicaciones, de manera que no sea necesario tener que implementarlos. - Definición de elementos de simulación, lo que se ha denominado en el framework controles. Se ha buscado reducir el coste de desarrollo y maximizar la reutilización. - Comunicación con los simuladores. Se ha definido e implementado una interfaz que permite la comunicación de las hojas Excel con los posibles motores de simulación. Se ha ofrecido esta interfaz en la interfaz ISimulatorService y se ha ofrecido también un cliente para comunicar con los simuladores de esta interfaz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo presenta los procedimientos para realizar la prueba de aplicaciones o programas grandes de computador y define los términos asociados con la misma. Una de las metas de la Ingeniería de Software es aumentar el nivel de corrección del software de computador. El propósito de la prueba es dar una medida de la corrección de un programa. La prueba es parte integral del ciclo de diseño y por tanto debe chequearse la corrección del programa cuando éste se está desarrollando.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Unity3d es un motor gráfico para la implementación de videojuegos creado por Unity3d Technologies que tiene el honor de ser una de las principales herramientas que propició el auge de los estudios independientes. Pese a estar enfocado al desarrollo de videojuegos en 3D, los desarrolladores lograban crear contenido en 2D a base de manipulaciones como la cámara y de utilizar herramientas no nativas. Afortunadamente, a partir de la versión 4.3 Unity3d integra herramientas nativas que facilitan esta tarea. Este proyecto consiste en la creación de un tutorial sobre la implementación de un videojuego del género puzles en 2D y enfocado a plataformas móviles, empleando para ello Unity3d y concretamente las nuevas herramientas nativas para 2D. La implementación de un videojuego es una tarea muy complicada y extensa, es por ello que en el tutorial se va a tratar la fase de diseño del videojuego y a nivel de implementación centrarse en dichas herramientas para el 2D, mostrando al final una versión jugable del videojuego implementado. Por otra parte, al ser numerosas las herramientas, es imposible tratar cada una de las herramientas aunque se intentará abarcar lo máximo posible y mencionar las que no se incluyan dentro de la implementación del videojuego. El resultado generado de este proyecto puede constituir una referencia para otras personas interesadas en aprender cómo usar Unity3d para programar videojuegos en 2D, lo cual les allanará seguramente el camino y les suavizará la curva de aprendizaje.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The document begins by describing the problem of budget information units and the high cost of commercial software that specializes in library automation. Describes the origins of free software and its meaning. Mentioned the three levels of automation in library: catalog automation, generation of repositories and full automation. Mentioned the various free software applications for each of the levels and offers a number of advantages and disadvantages in the use of these products. Concludes that the automation project is hard but full of satisfaction, emphasizing that there is no cost-free project, because if it is true that free software is free, there are other costs related to implementation, training and commissioning project progress.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo consiste en la elaboración de un sistema multiagente capaz de realizar simulaciones de enfermedades epidémicas, en determinados entornos, que pueden ser creados por los usuarios del sistema, así como la población que los ocupa, donde cada humano es un agente Jade. El trabajo se compone a su vez de cuatro módulos principales: una aplicación web realizada JSF, una aplicación de escritorio implementada en Java, el propio sistema multiagente que realiza las simulaciones, desarrollado usando Java sobre el framework de Jade y un servidor web que contiene al sistema multiagente y a la aplicación web mencionados anteriormente.El sistema desarrollado permite una gran cantidad de configuraciones sobre todos los aspectos que pueden influir en la simulación de una epidemia, como por ejemplo, parámetros de los entornos (tamaño, nivel de desarrollo, población de riesgo, etc.), población (porcentaje de población activa, estudiante, etc.) y enfermedades, así como sobre la propia simulación, ajustando por ejemplo el número de días de la duración o la probabilidad de que una persona decida ir a trabajar si está enferma. Además de realizar simulaciones, el sistema permite almacenarlas y consultarlas posteriormente, pudiendo tanto reproducirlas de nuevo como consultar información estadística detallada sobre la misma, así como distintas gráficas que muestran la evolución de la epidemia a lo largo de la simulación.Para garantizar un funcionamiento óptimo del sistema, este se ha ajustado y probado mediante diversas pruebas de estrés que garantizan que el rendimiento del mismo durante la realización de simulaciones es adecuado. Todo esto conforma un sistema cuya finalidad es la obtención de datos que puedan ser útiles de cara al estudio de enfermedades infecciosas potencialmente epidémicas y permitan extraer conclusiones sobre las mismas, ayudando al mejor entendimiento de este tipo de enfermedades y su comportamiento en determinados entornos.