35 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF
Resumo:
Existen múltiples aplicaciones informáticas (Perea, 2008) para registrar conductas perceptibles que el desarrollo tecnológico actual ha posibilitado, pero la gran mayoría de los programas informáticos tienen problemas en facilitar la: observación, codificación, registro y análisis en contextos naturales; esto hace que dificulten la labor de los investigadores (Hernández-Mendo, Castellano, Camerino, Jonsson, Blanco-Villaseñor, Lopes, y Anguera, 2014). Este trabajo se inscribe en el marco de las investigaciones sobre software relacionados con la Metodología Observacional (Anguera y Hernández-Mendo, 2013, 2014, 2015). El objetivo general es el diseño e implementación de una herramienta que facilite la observación, codificación, registro y análisis de contextos naturales. Desarrollo Teórico HOISAN (Herramienta de observación de las interacciones en ambientes naturales) es una herramienta implementada haciendo uso de la plataforma .NET y del lenguaje C#, que nos ayuda en la tarea de observación, codificación, registro, descripción, manipulación y visionado de las conductas en el marco de la Metodología Observacional. Permite al usuario trabajar con varios tipos de datos (Bakeman y Quera, 1996). Por lo que respecta a la métrica del registro observacional se han calculado parámetros primarios y secundarios. El programa admite el intercambio de datos con programas específicos de uso en Metodología Observacional (SDIS-GSEQ, SAGT y THEME). Este programa satisface la vertiente más profesional al tiempo que la investigadora en su implementación. Hoisan permite un acercamiento a la Metodología Cualitativa con un carácter cuantitativo y mediante el análisis de los registros con producción verbal. Permite la estimación de la calidad del dato y realiza análisis secuencial de retardos y a partir de éste calcula los valores Z para un posterior análisis de coordenadas polares. Conclusiones El programa diseñado permite la realización de distintos cálculos de uso común en Metodología Observacional (MO) (Anguera y Hernández-Mendo, 2013, 2014, 2015). Esta característica hace al software Hoisan (Hernández-Mendo, López-López, Castellano, Morales-Sánchez y Pastrana, 2012) convertirse en una de las herramientas más completas para trabajar con MO en investigaciones de distintos ámbitos. Bibliografía Anguera, M.T. y Hernández-Mendo, A. (2013). La metodología observacional en el ámbito del deporte. E-balonmano.com: Revista de Ciencias del Deporte 9(3), 135-160. http://www.e-balonmano.com/ojs/index.php/revista/article/view/139. Anguera, M.T. y Hernández-Mendo, A. (2014). Metodología observacional y psicología del deporte: Estado de la cuestión. Revista de Psicología del Deporte, 23(1), 103-109. Anguera, M.T. y Hernández-Mendo, A. (2015). Técnicas de análisis en estudios observacionales en ciencias del deporte. Cuadernos de Psicología del Deporte, 15(1), 13-30. Bakeman, R. y Quera, V. (1996). Análisis de la interacción. Análisis secuencial con SDIS y GSEQ. Madrid: RA-MA. Hernández-Mendo, A., Castellano, J., Camerino, O., Jonsson, G., Blanco-Villaseñor, A., Lopes, A. y Anguera, M.T. (2014). Programas informáticos de registro, control de calidad del dato, y análisis de datos. Revista de Psicología del Deporte, 23(1), 111-121. Hernández-Mendo, A., López-López, J.A., Castellano, J., Morales-Sánchez, V. y Pastrana, J.L. (2012). HOISAN 1.2: Programa informático para uso en Metodología Observacional. Cuadernos de Psicología del Deporte, 12(1), 55- 78. Perea, A. (2008). Análisis de las acciones colectivas en el futbol de rendimiento. Tesis doctoral no publicada. San Sebastián: Universidad del País Vasco.
Resumo:
El problema de selección de requisitos (o Next Release Problem, NRP) consiste en seleccionar el subconjunto de requisitos que se va a desarrollar en la siguiente versión de una aplicación software. Esta selección se debe hacer de tal forma que maximice la satisfacción de las partes interesadas a la vez que se minimiza el esfuerzo empleado en el desarrollo y se cumplen un conjunto de restricciones. Trabajos recientes han abordado la formulación bi-objetivo de este problema usando técnicas exactas basadas en resolutores SAT y resolutores de programación lineal entera. Ambos se enfrentan a dificultades cuando las instancias tienen un gran tamaño, sin embargo la programación lineal entera (ILP) parece ser más efectiva que los resolutores SAT. En la práctica, no es necesario calcular todas las soluciones del frente de Pareto (que pueden llegar a ser muchas) y basta con obtener un buen número de soluciones eficientes bien distribuidas en el espacio objetivo. Las estrategias de búsqueda basadas en ILP que se han utilizado en el pasado para encontrar un frente bien distribuido en cualquier instante de tiempo solo buscan soluciones soportadas. En este trabajo proponemos dos estrategias basadas en ILP que son capaces de encontrar el frente completo con suficiente tiempo y que, además, tienen la propiedad de aportar un conjunto de soluciones bien distribuido en el frente objetivo en cualquier momento de la búsqueda.
Resumo:
Performance and scalability of model transformations are becoming prominent topics in Model-Driven Engineering. In previous works we introduced LinTra, a platform for executing model transformations in parallel. LinTra is based on the Linda model of a coordination language and is intended to be used as a middleware where high-level model transformation languages are compiled. In this paper we present the initial results of our analyses on the scalability of out-place model-to-model transformation executions in LinTra when the models and the processing elements are distributed over a set of machines.
Resumo:
Generating sample models for testing a model transformation is no easy task. This paper explores the use of classifying terms and stratified sampling for developing richer test cases for model transformations. Classifying terms are used to define the equivalence classes that characterize the relevant subgroups for the test cases. From each equivalence class of object models, several representative models are chosen depending on the required sample size. We compare our results with test suites developed using random sampling, and conclude that by using an ordered and stratified approach the coverage and effectiveness of the test suite can be significantly improved.
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.