706 resultados para Prueba documental
Resumo:
Fil: Cobeñas, Pilar. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
El outsourcing o externalización de servicios es una herramienta de gestión que delega un área o actividad de trabajo de una organización a una empresa externa, llamada outsourcer, especializada en el servicio demandado. Entregar un proceso en outsorcing puede resultar complejo a causa de los procesos que están involucrados. Por ello es necesaria una evaluación que permita la selección del proveedor de outsorcing. La investigación se propone: 1. Elaborar un análisis comparativo de empresas que brindan servicios documentales a unidades de información, 2. Aportar una herramienta metodológica que permita evaluarlas teniendo en cuenta criterios específicos para aquellas que realizan outsorcing documental, 3. Evaluar una muestra de empresas como ejemplo de aplicación de la criteria creada. Se estudiarán empresas de servicios documentales de Argentina y España y se confeccionará una criteria como medio para validarla. Se empleará la herramienta creada para evaluar una muestra de empresas y, por último, se tabularán los datos y analizarán los resultados. Se espera que la difusión de los resultados contribuya a que las unidades de información puedan responder a los cambios del entorno a través del incremento del nivel de calidad de sus actividades, aumentar la flexibilidad de las organizaciones asegurando la supervivencia organizacional en los procesos que generan los productos y servicios, en la manera de hacerlos y ofrecerlos, estimular el interés de optar por el outsorcing como nueva forma de gestión tratando de asistir a quienes deban seleccionar empresas prestadoras de servicios documentales, reducir y controlar los costos operativos.
Resumo:
La voluntad política de transformación social radical que dio forma al campo artístico nacional y latinoamericano de los '60-'70 hace necesario atender a las alianzas que, tejidas entre prácticas diferenciadas de la producción cultural, buscaron aunar fuerzas para la concreción del cambio. En esa serie de problemas, Operación masacre constituye un caso privilegiado, puesto que si primero cuestionó los límites entre periodismo y literatura, con el común sentido de intervención en la historia en que insistieron las varias formulaciones del relato de Walsh; más tarde intervino en el cine, con la representación fílmica de la masacre, que se estrenó en 1973 bajo la dirección de Jorge Cedrón. El film de Cedrón no es únicamente una versión más de la Operación masacre de Walsh, o una fase más de la progresiva "peronización" del libro. Es, más bien, una apuesta estética y política específica, cuyo carácter particular va ligado a los desplazamientos de sentido que el dispositivo cinematográfico opera sobre su texto de partida. Se trata, así, no de un contraste entre textos -un relato documental y un guión-, como frecuentemente lo ha presentado la crítica literaria dedicada al tema; sino, en cambio, de un problema de transposición, donde cobran un lugar crucial las particularidades de la enunciación fílmica. Orientado en ese sentido, el trabajo propone un análisis de la película que, centrado en algunos aspectos de su dispositivo enunciativo, intenta elucidar los modos en que el film, ya en el inicio de los '70, y en relación inextricable con los avances y retrocesos del peronismo de izquierda en el campo político, exhibe en pantalla la potencia y las fallas de su voluntad revolucionaria
Resumo:
En el audiovisual Argenmex se reflexiona sobre la construcción identitaria de la generación de hijos de exiliados políticos expulsados por la última dictadura cívico militar argentina (1976-1983), es decir aquellos hijos de padres argentinos que han nacido y/o crecido en México y que, al momento de realizar el audiovisual (2007) tienen entre 25 y 30 años aproximadamente. La atención gira en torno a una cena realizada en una casa argentina con comida mexicana entre siete participantes. Se intercambian miradas, opiniones, historias de vida al mismo tiempo que, en un proceso activo, se (re)construyen los relatos de cada protagonista. A su vez, también se suman posteriormente otras historias de hijos de exiliados, ampliando la geografía del exilio hacia otros países y mostrando al colectivo organizado en "Hijas e Hijos del Exilio" (HdEx)
Resumo:
Mi gran inquietud, que desde muy joven tuve por el atletismo y en especial por la velocidad, a la cual dediqué muchos años de entrenamientos, me llevó a comprobar durante mis estudios de Profesor de Educación Física, en el Instituto Nacional de Educación Física de Madrid, que no existían criterios claros para la adopción de un test, que permitiera conocer la velocidad de base de los jóvenes talentos. A esta conclusión llegué, después de realizar una revisión bibliográfica de los test más usados en otros paises, en los cuales comprobé que se utilizan diferentes distancias para medir la velocidad de base de los jóvenes talentos. Todo esto me planteó la posibilidad de realizar un trabajo de investigación sobre cual es la distancia idónea para medir la velocidad de base en los jóvenes talentos. Para ello rae dirigí al C.I.T./D., donde se preparan a los futuros talentos deportivos, y me informé de las distintas pruebas de evaluación que realizan en dicho centro, en especial la prueba que aplican para la medición de la velocidad de base. Dicha prueba- comprendía una distancia a recorrer, a toda velocidad, de 40 metros con 10 metros previos para lanzarse. Dándome cuenta de que la distancia total a recorrer por los sujetos era de 50 metros, y creyendo excesiva dicha distancia para medir la velocidad de base en sujetos de 10-11-12 años, correspondientes a los tres niveles del C.I.T./D., esta apreciación me indujo a profundizar en el estudio y análisis de dicha prueba, y de esta forma tratar de encontrar una distancia idónea para medir la velocidad de base en los jóvenes talentos.
Resumo:
Los procesos relacionados con el transporte de residuos radiactivos a su lugar de destino, residuos de media actividad (RMA) hacia El Cabril, o en un futuro los de alta actividad (RAA) hacia el almacén temporal centralizado (ATC) están de actualidad, por la movilidad presente y el creciente incremento que se espera en un futuro próximo, el compromiso adquirido de estas actividades con el medio ambiente, la seguridad y protección de las personas [1]; así como su regulación legal. Cabe preguntarse: ¿Cómo se gestiona técnica y documentalmente este tipo de transportes? ¿Cuáles son las rutas más activas que se siguen? ¿Qué impacto radiológico se generará en el medio o en individuos tipo, los ocupantes de un vehículo particular o industrial, el público en general…?
Resumo:
Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.
Resumo:
Los herbarios, además de información botánica, pueden contener datos históricos de valor científico para el estudio de los montes y de su historia, como los recogidos en las colecciones de material que fue recolectado para la descripción y cartografía de las cubiertas forestales españolas. En este trabajo se sintetizan los datos obtenidos de la exsiccata Flora Forestal Española creada por investigadores del Instituto Forestal de Investigaciones y Experiencias- IFIE que, junto con información obtenida de documentos inéditos, evidencian la vinculación de esta colección a la realización de los mapas forestales y estudios de flora y vegetación provinciales; en particular a los de las provincias de Huelva y Sevilla, que quedaron inéditos, permitiendo precisar mejor su datación y aportando datos botánicos relevantes e información sobre el paisaje forestal anterior a las grandes repoblaciones con pinos y eucaliptos realizadas en el suroeste peninsular.
Resumo:
El ciclo térmico natural de la célula y receptores en módulos CPV (Concentrated PhotoVoltaic) es considerado un punto débil en la operación de campo real de estos dispositivos, así como la fluctuación entre valores altos y bajos de niveles de irradiancia incidente en la célula, comúnmente causadas por nubes, produce un estrés termo-mecánico que puede ser motivo de fallo. La normativa IEC 6218 ha tenido en cuenta esta serie de problemas a la hora de diseñar una norma de calificación y homologación para módulos CPV. En concreto, este proyecto se va a basar en el test denominado "Thermal cycling test" que realiza un ciclo térmico en la base de la célula mientras se le inyectan pulsos de corriente. Sin embargo, este método produce un nivel de estrés un 50% menor que el estrés real en condiciones nominales. En este proyecto se diseña e implementa la máquina LYSS (Light cYcling Stress Source) que trata de realizar dos tipos de ciclos basados en el definido en la IEC 62108 con la variación de utilizar pulsos de luz directa a muy alta irradiancia focalizada en la parte activa de la célula en lugar de los pulsos de corriente mencionados. Con este método se pretende acelerar el proceso de degradación en la célula de manera que en tan solo 2 meses se pueda producir la misma que en 30 años de vida útil de la célula. En el primer tipo de ciclo la temperatura permanece constante durante la ejecución de los pulsos de luz y, en el segundo se realiza un ciclo térmico que varía entre una temperatura mínima y otra máxima durante estos pulsos. Además, se establece un criterio de fallo basado en la estimación de la resistencia serie de la célula a partir de los valores de su curva característica IV en condiciones de oscuridad. La metodología del proyecto realizado consiste en realizar un estudio detallado para identificar los componentes necesarios para construir la máquina, adquirirlos, llevar a cabo el montaje de éstos para que la máquina pueda implementar los ciclos diseñados, realizar los experimentos necesarios para caracterizar los diferentes dispositivos que componen la máquina, programar una aplicación de control, monitorización y adquisición de datos que comande la máquina, realizar una serie de pruebas basadas en uno de los ciclos térmico-luminosos diseñados a receptores solares de concentración reales y, por último, observar la degradación que se pudiera producirse en ésta conforme aumenta el número de ciclos realizados analizando su curva IV en condiciones de oscuridad y obteniendo conclusiones sobre la fiabilidad de la célula y/o el receptor CPV.
Resumo:
Objetivos: Analizar la utilización de una u otra pierna como pierna de ataque predominante en atletas de 400 m vallas de alto nivel. Método: El estudio es descriptivo de corte transversal. Se estudiaron todas las carreras de 400 m vallas de los 72 participantes (34 hombres y 38 mujeres) en los XIII Campeonatos del Mundo de Atletismo Daegu 2011, mediante la grabación en video desde la tribuna principal del Daegu Stadium de las 18 carreras de 400 m vallas disputadas, y el posterior análisis mediante la aplicación informática Kinovea 0.8.4. Resultados: Por atletas, en el total de las carreras masculinas, la pierna de ataque predominante fue la izquierda con un 63,6 % (42 atletas) y con la pierna derecha hubo un 34,8 % (23 atletas). Solo en un caso había un equilibrio entre izquierda y derecha. En la final hubo un 75 % (6 atletas) cuya pierna predominante de ataque fue la izquierda. En cuanto a las mujeres, la pierna de ataque predominante fue la izquierda con un 48,6 % seguida de la pierna derecha con un 41,4 % y para el 10 % había un equilibrio de las dos. En la final, en cambio, la pierna predominante de ataque fue la derecha con un 87,5 % (7 atletas) por un 12,5 % de la izquierda (1 sola atleta). Se encontraron diferencias significativas (p = 0,018) en la media de tiempo final de los atletas masculinos según cual fuera su pierna de ataque. Conclusiones: La mayoría de los atletas atacan las vallas con derecha e izquierda en algún momento de la carrera, lo que obliga al dominio técnico bilateral. La pierna de ataque más utilizada es la izquierda, aunque en menor medida en el caso de las mujeres. Por primera vez en una gran competición, 7 de las 8 finalistas tienen la pierna derecha como pierna predominante.