983 resultados para Martínez, Ramón
Resumo:
La síntesis cuantitativa consiste en combinar los resultados de varios estudios experimentales con el objeto de generar nuevas piezas de conocimiento. Estas nuevas piezas de conocimientos serán más generales y fiables que los resultados obtenidos por los estudios individuales, ya que dichas piezas de conocimiento están sustentadas por una mayor cantidad de evidencia empírica. El objetivo del presente trabajo es determinar cuáles de los modelos de Meta-Análisis existentes conviene aplicar en el contexto experimental que hoy día presenta la Ingeniería de Software Experimental.
Resumo:
All meta-analyses should include a heterogeneity analysis. Even so, it is not easy to decide whether a set of studies are homogeneous or heterogeneous because of the low statistical power of the statistics used (usually the Q test). Objective: Determine a set of rules enabling SE researchers to find out, based on the characteristics of the experiments to be aggregated, whether or not it is feasible to accurately detect heterogeneity. Method: Evaluate the statistical power of heterogeneity detection methods using a Monte Carlo simulation process. Results: The Q test is not powerful when the meta-analysis contains up to a total of about 200 experimental subjects and the effect size difference is less than 1. Conclusions: The Q test cannot be used as a decision-making criterion for meta-analysis in small sample settings like SE. Random effects models should be used instead of fixed effects models. Caution should be exercised when applying Q test-mediated decomposition into subgroups.
Resumo:
Este proyecto de investigación se desarrolla en el marco de la cooperación existente entre el Grupo de Ingeniería de Software Experimental (GrISE) de la Facultad de Informática de la Universidad Politécnica de Madrid, el Grupo de Investigación en Sistemas de Información (GISI) del Departamento de Desarrollo Productivo y Tecnológico de la Universidad Nacional de Lanús y el Grupo de Estudio en Metodologías de Ingeniería de Software (GEMIS) de la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional.
Resumo:
Background: Several meta-analysis methods can be used to quantitatively combine the results of a group of experiments, including the weighted mean difference, statistical vote counting, the parametric response ratio and the non-parametric response ratio. The software engineering community has focused on the weighted mean difference method. However, other meta-analysis methods have distinct strengths, such as being able to be used when variances are not reported. There are as yet no guidelines to indicate which method is best for use in each case. Aim: Compile a set of rules that SE researchers can use to ascertain which aggregation method is best for use in the synthesis phase of a systematic review. Method: Monte Carlo simulation varying the number of experiments in the meta analyses, the number of subjects that they include, their variance and effect size. We empirically calculated the reliability and statistical power in each case Results: WMD is generally reliable if the variance is low, whereas its power depends on the effect size and number of subjects per meta-analysis; the reliability of RR is generally unaffected by changes in variance, but it does require more subjects than WMD to be powerful; NPRR is the most reliable method, but it is not very powerful; SVC behaves well when the effect size is moderate, but is less reliable with other effect sizes. Detailed tables of results are annexed. Conclusions: Before undertaking statistical aggregation in software engineering, it is worthwhile checking whether there is any appreciable difference in the reliability and power of the methods. If there is, software engineers should select the method that optimizes both parameters.
Resumo:
El proceso de captura de requisitos constituye un proceso con connotaciones sociales relacionadas con diferentes personas (stakeholders), una circunstancia que hace que ciertos problemas se presenten cuando se lleva adelante el proceso de conceptualización de requisitos. Se propone un proceso de conceptualización de requisitos que se estructura en dos fases: (a) Análisis Orientado a al Problema: cuyo objetivo es comprender el problema dado por el usuario en el dominio en el que este se lleva a cabo, y (b) Análisis de Orientado al Producto: cuyo objetivo es obtener las funcionalidades que el usuario espera del producto de software a desarrollar, teniendo en cuenta la relación de estas con la realidad expresada por el usuario en su discurso. Se proponen seis técnicas que articulan cada una de las tareas que componen las fases de proceso propuesto.
Resumo:
Se propone la utilización de un servicio de software (SaaS) junto a una metodología para realizar en forma ordenada la inclusión de la funcionalidad de Undo/Redo dentro de una aplicación nueva o existente.
Resumo:
This paper proposes a highly automated mechanism to build an undo facility into a new or existing system easily. Our proposal is based on the observation that for a large set of operators it is not necessary to store in-memory object states or executed system commands to undo an action; the storage of input data is instead enough. This strategy simplifies greatly the design of the undo process and encapsulates most of the functionalities required in a framework structure similar to the many object-oriented programming frameworks.
Resumo:
Aguilar,
Resumo:
Este documento tiene por objeto dar a conocer la necesidad que existe en crear un sistema administrativo en la sección de mercado de la alcaldía municipal de Jucuapa, departamento de Usulután, para que los usuarios de esta sección gocen de mejores servicios, esto con el objetivo principal de alcanzar la calidad en la prestación de sus servicios por medio de la efectividad de todos los elementos internos y externos que toman partido de esta sección. Este estudio traerá grandes beneficios a la administración de la institución y proveerá las herramientas para combatir este aspecto en el que toma parte el usuario de los servicios el cual será el principal beneficiado y está representado por la población del municipio de Jucuapa. Conocer las funciones y los procedimientos de los empleados actuales designados para la sección de Mercados del Depto. de Servicios Públicos, la creación de nuevos cargos de acuerdo a los perfiles que sean demandados para el puesto, crear un manual para los empleados actuales y para los nuevos cargos en la sección con sus respectivas funciones y procedimientos y la implementación de un sistema administrativo formal y adecuado para mejorar el funcionamiento de la sección con el fin de brindar un servicio eficiente y oportuno a los que a ella lo demanden
Resumo:
Part 12: Collaboration Platforms
Resumo:
El libro que ahora nos ocupa, titulado “Ingeniería de Software e Ingeniería del Conocimiento: dos disciplinas interrelacionadas” surge con los aportes de una gran cantidad de grupos iberoamericanos que presentan conclusiones importantes sobre estas dos disciplinas. Se presentan proyectos en diferentes temas, como entornos virtuales de aprendizaje, transferencia del conocimiento, modelos y metodologías del software como PSP y Scrum, elementos de ingeniería de requisitos, arquitecturas y lenguajes, además de varias técnicas y estrategias de enseñanza y tendencias modernas como Semat. Todos estos temas se conjugan y, en ocasiones, sus límites se hacen borrosos entre las dos disciplinas que dan nombre a este libro, entregando en 22 Capítulos aportes de gran relevancia para el entorno científico Iberoamericano. Confiamos en que las contribuciones que se incluyen en este libro susciten nuevas maneras de aproximar aún más la Ingeniería de Software y la Ingeniería del Conocimiento, como áreas que tienen mucho que aportarse la una a la otra.
Resumo:
La región volcánica de Campo de Calatrava se ha interpretado como un proceso de volcanismo intraplaca desarrollado durante el Neógeno. Se han propuesto dos modelos geodinámicos contrapuestos para explicar el origen de este volcanismo: a) un proceso de rifting en un contexto extensional con un adelgazamiento localizado de corteza; b) un proceso flexural de la litosfera en un contexto compresivo débil sin adelgazamiento de corteza. El análisis de las anomalías gravimétricas de Bouguer y una modelización gravimétrica 2D a escala cortical contribuyen a discriminar entre los modelos geodinámicos propuestos para el origen del volcanismo. Los modelos gravimétricos se han constreñido en base a los estudios sísmicos profundos existentes en la zona y a la cartografía geológica regional. Los modelos gravimétricos descartan un adelgazamiento cortical, lo que cuestiona el modelo de rifting abortado y apoyan la hipótesis alternativa del proceso flexural de la litosfera en régimen compresivo débil como origen del volcanismo bético.
Resumo:
Tesis (Maestría en Letras Españolas) U.A.N.L.