1000 resultados para MEDICIÓN DE SOFTWARE
Resumo:
Independientemente de la metodología que se adopte en el desarrollo de software, se contemplan aquellas actividades gerenciales o de dirección del proyecto y las inherentes a las técnicas, propias del desarrollo del producto como tal, como los requerimientos demandados, análisis, diseño, implementación y pruebas o ensayos previos a su materialización -- El presente trabajo se deriva del interés por diseñar una metodología para la gestión de la fase de pruebas y ensayo, con base en el modelo de integración de las actividades contempladas en la guía del PMBOK, la cual es compatible con las funciones de dirección y actividades técnicas de otras metodologías, especialmente en su etapa de prueba; de allí la importancia que representa para los gerentes de proyectos obtener resultados satisfactorios en esta fase, por su impacto directo y significativo en el cumplimiento del tiempo y los costos estimados, lo que permite prevenir o mitigar, tiempos adicionales o sobrecostos por reproceso, evitando ser transferidos al cliente o asumidos por el fabricante de software -- Así mismo, asegurar una ejecución correcta de la fase de pruebas y ensayo, garantiza que el proyecto responda a los estándares de calidad, de acuerdo con sus indicadores de medición y la satisfacción del usuario
Resumo:
Aquest treball presenta com s'ha de dur a terme un procés d'estimació que permeti obtenir estimacions de qualitat i analitza els principals mètodes d'estimació de programari. Es tracta de mètodes que persegueixen l'obtenció de mesures objectives i fonamentades sobre el mesurament de programari i l'estimació de temps i costos d'un projecte.
Resumo:
En el plan de desarrollo integral 2004 – 2019 la universidad tiene como objetivo integrar diferentes tecnologías de información y comunicación en los ejes misionales de docencia, investigación y extensión, propiciando un cambio cultural progresivo de la comunidad rosarista. (pag.59); Es por esto que la universidad desea saber el nivel de conocimiento y competencia tecnológica de los docentes. Así las cosas, la Universidad busca que con su plan de desarrollo integral se forme al profesor en esa cultura, siendo este competente con la tecnología de la información para lograr ejercer satisfactoriamente su cátedra, en el contexto en que dicho plan desea integrar las diferentes tecnologías de información y comunicación, a fin de generar un apoyo a los procesos de los docentes a nivel curricular, optimizando el uso de plataformas educativa en la labor pedagógica
Resumo:
Resumen tomado de la publicación
Resumo:
El artículo está incluido en un número monográfico especial con los trabajos del I Simposio Pluridisciplinar sobre Diseño, Evaluación y Descripción de Contenidos Educativos Reutilizables (Guadalajara, Octubre 2004).Resumen basado en el de la publicación
Resumo:
Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.
Resumo:
Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.
Resumo:
Dada la gran importancia que ha tomado el paradigma orientado a objetos en la ingeniería de software y al papel central que juega la reusabilidad dentro de éste, se hacen necesarias la precisión y formalización de conceptos claves como cohesión, acoplamiento y modularidad. En este trabajo se propone una formalización matemática de esos conceptos claves basada en la topología algebraica y que nos conduce a unos criterios formales de diseño modular que facilitan la medición de los conceptos.
Resumo:
En éste artículo se analiza las características y dimensiones de los indicadores de las Estrategias Genéricas (Porter, 1980) y de los Cuadro de Mando Integral (Kaplan y Norton, 1992), para posteriormente integrarlas y conjugarlas con el propósito de conformar un “Modelo de Medición de la Gestión Estrategia mediante una Estructura del Cuadro de Mando Integral para el Sector Manufacturero de Talabartería y Guarnicionería de Venezuela” (CMI-EGP). Los datos fueron recolectados con dos cuestionarios basados en dimensiones de éstas dos teorías, relacionadas con la alineación entre el recurso humano y la gestión organizacional. Es decir, donde cada dependencia busca alinear los enfoques estratégicos propios de la organización, para así convertirse en un factor de éxito. La metodología empírica empleada esta basada en la técnica de reducción de datos o análisis factorial y por un análisis confirmatorio mediante la técnica Structural Equation Models (SEM), que es una herramienta integral de modelización multiecuacional que fusiona la econometría con los principios de medición de la psicología y la sociología. Esta técnica estadística de análisis multivariante tiene como objetivos primordiales, el aumentar la capacidad explicativa del investigador y la eficacia estadística. La investigación proporciona una modelización confirmatoria que correlaciona las variables latentes y manifiestas, que determinan el grado de relación y alineación entre las cuatro perspectivas de cuadro de mando integral (procesos internos, financieros, del cliente y aprendizaje y crecimiento) y las estrategias genéricas de Porter. Para el procesamiento se emplea el software LISREL versión más reciente 8.8 del año 2009, que es un programa usado en el análisis de ecuaciones estructurales, que fue desarrollado en los años setenta por Karl Jöreskog y Dag Sörbom, ambos profesores de la Universidad de Upsala, Suecia.
Resumo:
La creciente tecnología en hardware y software permite en la década de los 60`s insertarse en el mundo de las finanzas, dando respuesta a la necesidad de obtener información contable, administrativa y gerencial de forma ágil y oportuna a usuarios internos y externos a la empresa, haciendo uso de software desarrollados, adquiridos o arrendados, que respondan a los distintos cambios en las medidas económicas que rigen la actividad comercial. Sin embargo, la experiencia muestra lo contrario, debido a que las entidades desconocen ¿Cuáles son los elementos a considerarse en la fase del análisis preliminar del Ciclo de Vida y Desarrollo de los Sistemas al momento de adquirir software administrativos? Con el objetivo de dar respuesta a dicha problemática se deben identificar y considerar los elementos necesarios dentro del análisis preliminar como es la identificación de las necesidades, recursos tecnológicos, humanos, financieros y las políticas contables y administrativas de forma sistemática. Para ello, se hizo un estudio explorativo, descriptivo y analítico a 76 entidades contribuyentes de la Asociación Nacional de la Empresa Privada ANEP, distribuidas entre los sectores industria, comercio y servicio (muestra seleccionada). La técnica utilizada para recopilar dicha información fue el cuestionario diseñado tomando de base la información obtenida de fuentes primarias (personal encuestado en prueba piloto) y de las fuentes secundarias (textos bibliográficos). Para el análisis e interpretación de los datos obtenidos se utilizó la herramienta de Microsoft Excel - Tablas dinámicas relacionando variables e indicadores. Entre los resultados obtenidos se constata la falta de diseño de planes de contingencia, cambio de software en periodos cortos de tiempo, existencia de compromisos a cumplir por la institución (franquicias, convenios, lineamientos corporativos). Cuyo origen se debe en su mayoría, a la falta de medición del impacto que esta decisión conlleva en el ámbito operativo, técnico, organizacional y financiero en la entidad, por parte del recurso humano involucrado. Como resultado de la investigación se concluye que: los sistemas de información deben ser flexibles de acuerdo a las necesidades de las empresas, sin perder la oportunidad y confiabilidad; de acuerdo al volumen y complejidad de las transacciones así será necesario adquirir software modulares, integrados o gerenciales; la disponibilidad de la información requerida determinará la actualización de los datos de forma inmediata (línea) o después de ejecutarse un proceso (lote). Dando solución a lo antes planteado, se diseña la Metodología CIED (Conocimiento, Identificación, Estudios y Decisión), la cual consta de cuatro etapas: 1. Conocimiento del negocio y análisis del entorno. 2. Identificación de las necesidades a solventar. 3. Estudios de factibilidad. 4. Decisión. La implementación de cada una de ellas es aplicable a los diferentes sectores económicos y tamaño de empresas, además de ser un sistema metodológico que recoge evidencia del trabajo realizado mostrando a su vez una sistematización del proceso de decisión, lo que hace que dicho proceso sea auditable desde su origen.
Resumo:
This article aimed at comparing the accuracy of linear measurement tools of different commercial software packages. Eight fully edentulous dry mandibles were selected for this study. Incisor, canine, premolar, first molar and second molar regions were selected. Cone beam computed tomography (CBCT) images were obtained with i-CAT Next Generation. Linear bone measurements were performed by one observer on the cross-sectional images using three different software packages: XoranCat®, OnDemand3D® and KDIS3D®, all able to assess DICOM images. In addition, 25% of the sample was reevaluated for the purpose of reproducibility. The mandibles were sectioned to obtain the gold standard for each region. Intraclass coefficients (ICC) were calculated to examine the agreement between the two periods of evaluation; the one-way analysis of variance performed with the post-hoc Dunnett test was used to compare each of the software-derived measurements with the gold standard. The ICC values were excellent for all software packages. The least difference between the software-derived measurements and the gold standard was obtained with the OnDemand3D and KDIS3D (-0.11 and -0.14 mm, respectively), and the greatest, with the XoranCAT (+0.25 mm). However, there was no statistical significant difference between the measurements obtained with the different software packages and the gold standard (p> 0.05). In conclusion, linear bone measurements were not influenced by the software package used to reconstruct the image from CBCT DICOM data.
Resumo:
This paper presents SMarty, a variability management approach for UML-based software product lines (PL). SMarty is supported by a UML profile, the SMartyProfile, and a process for managing variabilities, the SMartyProcess. SMartyProfile aims at representing variabilities, variation points, and variants in UML models by applying a set of stereotypes. SMartyProcess consists of a set of activities that is systematically executed to trace, identify, and control variabilities in a PL based on SMarty. It also identifies variability implementation mechanisms and analyzes specific product configurations. In addition, a more comprehensive application of SMarty is presented using SEI's Arcade Game Maker PL. An evaluation of SMarty and related work are discussed.
Resumo:
Thousands of Free and Open Source Software Projects (FSP) were, and continually are, created on the Internet. This scenario increases the number of opportunities to collaborate to the same extent that it promotes competition for users and contributors, who can guide projects to superior levels, unachievable by founders alone. Thus, given that the main goal of FSP founders is to improve their projects by means of collaboration, the importance to understand and manage the capacity of attracting users and contributors to the project is established. To support researchers and founders in this challenge, the concept of attractiveness is introduced in this paper, which develops a theoretical-managerial toolkit about the causes, indicators and consequences of attractiveness, enabling its strategic management.
Resumo:
Objective To evaluate drug interaction software programs and determine their accuracy in identifying drug-drug interactions that may occur in intensive care units. Setting The study was developed in Brazil. Method Drug interaction software programs were identified through a bibliographic search in PUBMED and in LILACS (database related to the health sciences published in Latin American and Caribbean countries). The programs` sensitivity, specificity, and positive and negative predictive values were determined to assess their accuracy in detecting drug-drug interactions. The accuracy of the software programs identified was determined using 100 clinically important interactions and 100 clinically unimportant ones. Stockley`s Drug Interactions 8th edition was employed as the gold standard in the identification of drug-drug interaction. Main outcome Sensitivity, specificity, positive and negative predictive values. Results The programs studied were: Drug Interaction Checker (DIC), Drug-Reax (DR), and Lexi-Interact (LI). DR displayed the highest sensitivity (0.88) and DIC showed the lowest (0.69). A close similarity was observed among the programs regarding specificity (0.88-0.92) and positive predictive values (0.88-0.89). The DIC had the lowest negative predictive value (0.75) and DR the highest (0.91). Conclusion The DR and LI programs displayed appropriate sensitivity and specificity for identifying drug-drug interactions of interest in intensive care units. Drug interaction software programs help pharmacists and health care teams in the prevention and recognition of drug-drug interactions and optimize safety and quality of care delivered in intensive care units.
Resumo:
Support for interoperability and interchangeability of software components which are part of a fieldbus automation system relies on the definition of open architectures, most of them involving proprietary technologies. Concurrently, standard, open and non-proprietary technologies, such as XML, SOAP, Web Services and the like, have greatly evolved and been diffused in the computing area. This article presents a FOUNDATION fieldbus (TM) device description technology named Open-EDD, based on XML and other related technologies (XLST, DOM using Xerces implementation, OO, XMIL Schema), proposing an open and nonproprietary alternative to the EDD (Electronic Device Description). This initial proposal includes defining Open-EDDML as the programming language of the technology in the FOUNDATION fieldbus (TM) protocol, implementing a compiler and a parser, and finally, integrating and testing the new technology using field devices and a commercial fieldbus configurator. This study attests that this new technology is feasible and can be applied to other configurators or HMI applications used in fieldbus automation systems. (c) 2008 Elsevier B.V. All rights reserved.