14 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF
em Universidad de Alicante
Resumo:
El trabajo que aquí se presenta se ha realizado con el objetivo de constatar la necesidad de formación en software libre por parte del profesorado. Este trabajo pretende averiguar el grado de utilización de las TIC por parte de los maestros de primaria de educación musical así como el nivel de conocimiento del software libre.
Resumo:
Comunicación y póster presentados en las VIII Jornadas de Redes de Investigación en Docencia Universitaria "Nuevas titulaciones y cambio universitario", Alicante, 8-9 Julio 2010.
Resumo:
Póster y resumen de la comunicación presentada en el VI Congreso Internacional de Docencia Universitaria e Innovación (CIDUI), Barcelona, 30 junio-2 julio 2010.
Resumo:
Data mining is one of the most important analysis techniques to automatically extract knowledge from large amount of data. Nowadays, data mining is based on low-level specifications of the employed techniques typically bounded to a specific analysis platform. Therefore, data mining lacks a modelling architecture that allows analysts to consider it as a truly software-engineering process. Bearing in mind this situation, we propose a model-driven approach which is based on (i) a conceptual modelling framework for data mining, and (ii) a set of model transformations to automatically generate both the data under analysis (that is deployed via data-warehousing technology) and the analysis models for data mining (tailored to a specific platform). Thus, analysts can concentrate on understanding the analysis problem via conceptual data-mining models instead of wasting efforts on low-level programming tasks related to the underlying-platform technical details. These time consuming tasks are now entrusted to the model-transformations scaffolding. The feasibility of our approach is shown by means of a hypothetical data-mining scenario where a time series analysis is required.
Resumo:
En este trabajo hemos cuantificado las tasas de deformación actual de la cuenca del Bajo Segura (NE del corredor de cizalla de la Bética oriental), a partir del análisis de una red GPS con 11 vértices geodésicos. Se han analizado los datos de cuatro campañas GPS entre junio de 1999 y enero de 2013, que han sido procesados con la versión 6.2 del software GIPSY-OASIS. Este software utiliza la técnica de posicionamiento puntual de precisión conocido por las siglas PPP. Se observa un acortamiento ~N-S en toda la cuenca de mayor magnitud en el sur, en la zona de falla del Bajo Segura, con valores que varían de oeste a este entre 0,73 y 0,24 mm/año. En el borde septentrional de la cuenca, en la zona de falla de Crevillente, los valores de acortamiento N-S son menores. Sin embargo, en esta falla se ha observado un movimiento lateral sinistrorso que, en la componente E-O, varía entre 0,44 y 0,75 mm/año.
Resumo:
La literatura sobre ingeniería del software contiene numerosas propuestas para sistematizar las operaciones de diseño y ayudar en la toma de decisiones relacionadas con las soluciones a los problemas. Este artículo propone un marco conceptual para justificar la técnica de arriba hacia abajo que se sigue en el diseño tecnológico. El punto de partida es el enunciado de un problema en su versión de conjetura inicial, esto es, una hipótesis, y consta de una fase inicial que es esencialmente del ámbito del problema, y una segunda fase que es esencialmente del dominio de la solución. La fase del dominio del problema aborda una técnica para expresar el enunciado del problema con formato de una definición correcta y exacta, contextualizada en un dominio de referencia que es un modelo del problema y basada en una estructura sintáctica preestablecida. Esta fase produce una especificación formal del problema con formato de una expresión lógica o matemática que refiere el problema a un modelo y que denota, desde un enfoque externo al problema, los objetivos que se persigue que la solución satisfaga. La fase del dominio de la solución obtiene una especificación estructural de una solución al problema, que consiste en un árbol descriptor de la jerarquía de los módulos que componen la estructura y un grafo de las relaciones entre módulos, es decir, de la organización de los módulos. El fundamento del proceso de tomar decisiones de arriba hacia abajo consiste en clasificar las acciones que conforman el método de diseño y en establecer una ordenación entre las clases de acciones encontradas. Se propone un caso de estudio sencillo para poner de relieve el alcance de esta propuesta.
Resumo:
Comunicación presentada en las VII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2002), dentro del II Taller sobre Ingeniería del Software Orientada al Web (Web Engineering) WebE'2002, El Escorial, Madrid, 19 noviembre 2002.
Resumo:
Comunicación presentada en las VIII Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2003, Alicante, 12-14 noviembre 2003.
Resumo:
El éxito en la búsqueda de conocimiento a partir de grandes cantidades de datos radica en la calidad de los mismos. Hasta ahora los aspectos de calidad de los datos se han enfocado principalmente a la limpieza de los datos: detección de duplicados, valores atípicos, perdidos, incompletos o conflictos en instancias, entre otros. En este trabajo se presenta un caso de estudio que nos ha permitido determinar ciertos aspectos de calidad que pueden mejorar la expectativa de éxito en el análisis evitando resultados erróneos, incorrectos o poco fiables. Este es un primer paso hacia la consideración de manera sistemática y estructurada de criterios de calidad específicos para minería de datos que ayude al minero de datos en sus objetivos.
Resumo:
Comunicación presentada en las XVI Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2011, A Coruña, 5-7 septiembre 2011.
Resumo:
Los sistemas de búsqueda de respuestas (BR) se pueden considerar como potenciales sucesores de los buscadores tradicionales de información en la Web. Para que sean precisos deben adaptarse a dominios concretos mediante el uso de recursos semánticos adecuados. La adaptación no es una tarea trivial, ya que deben integrarse e incorporarse a sistemas de BR existentes varios recursos heterogéneos relacionados con un dominio restringido. Se presenta la herramienta Maraqa, cuya novedad radica en el uso de técnicas de ingeniería del software, como el desarrollo dirigido por modelos, para automatizar dicho proceso de adaptación a dominios restringidos. Se ha evaluado Maraqa mediante una serie de experimentos (sobre el dominio agrícola) que demuestran su viabilidad, mejorando en un 29,5% la precisión del sistema adaptado.
Resumo:
Una de las principales líneas de trabajo del grupo de investigación EDUTIC-ADEI de la Universidad de Alicante se centra en el ámbito de las Tecnologías de la Información y la Comunicación (TIC) relacionadas con la Educación. Desde el año 2006 este grupo de investigación ha estado trabajando de manera interdisciplinar, entre otras líneas temáticas relacionadas, en lo que se refiere a la integración de las TIC en la docencia universitaria. En este vídeo, se presenta una de las experiencias educativas que se han desarrollado en el seno de EDUTIC-ADEI en la cual alumnos del Grado de Maestro en Educación Primaria y en Educación Infantil han utilizado software social para elaborar y publicar e-contenidos (contenidos en formato electrónico) que puedan utilizarse en el ámbito educativo, aprovechando de esta manera los recursos multimedia, hipertextuales y telemáticos que ofrece Internet para compartir conocimiento (ver http://recursosedutic.blogspot.com.es/).
Resumo:
El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.
Resumo:
Context: Global Software Development (GSD) allows companies to take advantage of talent spread across the world. Most research has been focused on the development aspect. However, little if any attention has been paid to the management of GSD projects. Studies report a lack of adequate support for management’s decisions made during software development, further accentuated in GSD since information is scattered throughout multiple factories, stored in different formats and standards. Objective: This paper aims to improve GSD management by proposing a systematic method for adapting Business Intelligence techniques to software development environments. This would enhance the visibility of the development process and enable software managers to make informed decisions regarding how to proceed with GSD projects. Method: A combination of formal goal-modeling frameworks and data modeling techniques is used to elicitate the most relevant aspects to be measured by managers in GSD. The process is described in detail and applied to a real case study throughout the paper. A discussion regarding the generalisability of the method is presented afterwards. Results: The application of the approach generates an adapted BI framework tailored to software development according to the requirements posed by GSD managers. The resulting framework is capable of presenting previously inaccessible data through common and specific views and enabling data navigation according to the organization of software factories and projects in GSD. Conclusions: We can conclude that the proposed systematic approach allows us to successfully adapt Business Intelligence techniques to enhance GSD management beyond the information provided by traditional tools. The resulting framework is able to integrate and present the information in a single place, thereby enabling easy comparisons across multiple projects and factories and providing support for informed decisions in GSD management.