854 resultados para detección de errores


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se expone el potencial didáctico del planteamiento de problemas de física en los que se introducen, de forma intencionada, ciertos errores e incongruencias de planteamiento, desarrollo e interpretación de resultados que los estudiantes deben detectar. Se pretende con ello despertar el interés de los estudiantes por la física, al tiempo que puedan desarrollar una serie de actitudes y destrezas científicas objetos de aprendizaje. Se ejemplifica a través de: problema con incongruencias en el enunciado, problema con datos incorrectos, problema con inducción a planteamiento incorrecto, problema con procedimiento que presenta argumentos físicos erróneos, problema con un desarrollo que presenta incongruencias de tipo matemático, problema con aparentes incongruencias en el resultado, problema de cinemática y problema que viola aparentemente el principio de conservación de la energía. Se concluye que la reflexión sobre cuestiones como las expuestas coadyuva a potenciar la capacidad de razonamiento del alumnado, puesto que se vuelven más cautos y reflexivos a la hora de afrontar cualquier otro tipo de cuestión o problema de física. Asimismo, se consiguen afianzar mejor los conceptos manejados, dado que permite corregir muchas de las lagunas cognitivas que perduran después del aprendizaje.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto consiste en verificar si existen métodos de ajuste que nos permitan corregir observaciones que llevan introducidas un cierto error grosero. Este error puede ser cometido por el operador al realizar la toma de datos. Cuando se realiza el ajuste por el método clásico de una serie de observaciones que componen una red y éstas llevan incluidas un error grosero, el resultado del ajuste es totalmente inválido, ya que este método tiende a repartir los errores cometidos entre todas las observaciones dando como resultado residuos muy elevados. Normalmente, ante este tipo de casos, el usuario responde invalidando las observaciones con mayor residuo y procediendo a realizar el ajuste sin contar con las observaciones que se anularon. Para llevar a cabo este proceso, debe haber redundancia en la toma de datos, ya que si no se dispusiera de la misma, no podrían eliminarse observaciones. Nuestro objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma al usuario corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que nuestra investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas en las que todavía no han sido utilizados. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado y las conclusiones del mismo han sido muy favorables, como se puede comprobar más adelante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en comprobar si es posible encontrar métodos de ajuste con los que poder corregir observaciones altimétricas con errores groseros, que pueden ser causados por el operador al realizar la observación o por otras circunstancias. El ajuste por el método clásico de mínimos cuadrados tiende a repartir los errores cometidos entre todas las observaciones, lo que da como resultado residuos muy elevados cuando se realiza el ajuste de una red cuyas observaciones poseen un error grosero o varios. Habitualmente, siempre y cuando haya redundancia en la toma de datos, se procederá a quitar la observación con mayor residuo y se realizará de nuevo el ajuste sin tener en cuenta dicha observación. También se estudiará el Test de Baarda y su comportamiento según sea el error cometido y el número de errores groseros que aparezcan en el ajuste. Pero el objetivo real es llevar a cabo un estudio en el que demostrar que el método de ajuste por técnicas de estimación robusta tiene una capacidad infinitamente superior a los mínimos cuadrados en la detección de errores groseros en observaciones, permitiendo de esta forma corregir dicho error e incluir esa observación en el ajuste. Este método de ajuste (estimación robusta) comenzó a emplearse en el campo de la fotogrametría. Es por ello que esta investigación irá encaminada al empleo de los estimadores robustos en aplicaciones topográficas. Se decidió iniciar este estudio porque era un proyecto innovador que nunca había sido realizado en altimetría y me inspiró un proyecto realizado anteriormente bastante similar a este pero centrándose en planimetría, con conclusiones muy favorables, lo que me animó a continuarlo centrándome en la altimetría.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Duración (en horas): De 31 a 40 horas. Destinatario: Estudiante y Docente

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Ejemplar fotocopiado

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Resúmen del autor. Resúmenes en español e inglés

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pretende diseñar un programa instruccional que incremente los conocimientos metacognitivos y la utilización de estrategias por parte del alumnado de EGB como medio para mejorar su comprension lectora.. Se compone de 80 estudiantes de sexto de EGB, 26 en el grupo de control y dos grupos experimentales de 27 y 79 estudiantes de octavo curso de EGB, 27 en el grupo de control y dos grupos esperimentales de 26.. Revisa los temas básicos sobre los que trata el trabajo Lectura y Metacognición. Se concibe la lectura como un proceso interactivo complejo en el que se diferencian varios subprocesos. El sujeto aporta condicionamientos tan importantes como los conocimientos previos, metas y estrategias de comprensión. Se realizan dos investigaciones experimentales.. Se utiliza un cuadernillo de instrucción de estrategias; dos libros de texto, La rueda 6 y El faro 8; pruebas de comprensión lectora, conocimiento metacognitivo, detección de errores y procedimiento de Cloze.. Se emplea un diseño de pretest y postest. El tratamiento estadístico de los datos se realiza por medio de análisis de varianza.. El alumnado entrenado dispone de mayor número de conocimientos sobre actividades relacionadas con la lectura y mejora su comprensión lectora..

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Determina la competencia conceptual que subyace a las ejecuciones de contar en niños de diferentes edades y en distintas situaciones.. Se trabaja con 72 niños y niñas distribuidos en tres grupos de edad, 24 de guardería con 3-4 años, 24 de primero de preescolar con 4-5 años y 24 de segundo de preescolar con 5-6 años.. Se revisa la literatura sobre la capacidad de contar y la relación que guarda con otras habilidades numéricas y aritméticas. Se desarrolla un estudio empírico en el que el alumnado enseña a contar a una marioneta, de esta forma es el aluamnado quien explica sus propia concepción del conteo y se busca una alternativa a la detección de errores para neutralizar la crítica del contexto social.. Se emplean láminas de acetato con pegatinas de diversas formas y colores.. Se realizan tres entrevistas individuales en tres días distintos que se graban en vídeo. Los aciertos se analizan de forma cuantitativa y los errores cualitativamente. El estudio estadístico emplea análisis de varianza, medias, desviaciones típicas, comparaciones simples y contrastes de interacción..

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Descripción del sistema Checkedit, desarrollado por CELADE para detección de errores en archivos secuenciales, de acuerdo a reglas establecidas por el usuario.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

[ES] Se presenta el análisis de Calidad del Dato utilizado en la construcción de una herramienta de observación diseñada ad hoc. Se trata de un sistema mixto de formatos de campo y sistemas de categorías exhaustivas y mutuamente excluyentes (E/ME) que tiene como objetivo codificar la fase de ataque del balonmano playa. Se utilizan como criterios: minuto, marcador, zona de finalización y jugador que finaliza. Se han codificado 12 observaciones de selecciones nacionales absolutas masculinas. El análisis se ha realizado utilizando la concordancia consensuada (aproximación cualitativa de la calidad del dato), elaborando un archivo de detección de errores, calculando el índice Kappa de Cohen, los índices de correlación Tau-B de Kendall, Pearson y Spearman; y un análisis de Generalizabilidad. Los resultados de los coeficientes de correlación muestran un índice mínimo de .993, los índices Kappa de Cohen se sitúan en .917 y los índices de generalizabilidad son óptimos. Estos resultados aseguran que la herramienta de observación, además de tener un buen ajuste, permite registrar con fiabilidad y precisión.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El tema del control del aparato a través del cual actúa el Estado, también llamado administración estatal, adquiere gran relevancia debido a la evolución del concepto del control, que ya no se restringe a la simple detección de errores y corrección de desviaciones del pasado, sino que aparece como un valioso auxiliar de la toma de decisiones capaz de reorientar acciones y metas hacia lo que es mejor para las organizaciones y sus integrantes. En tal sentido, verificar la exactitud con que se cumplen las decisiones de gobierno, evitar desviaciones, redefinir metas a alcanzar y cursos de acción a transitar, hacen del control una función importante que es necesario estudiar, comprender, explicitar. El trabajo indaga en los sistemas y modalidades del control público en la Nación, precisando las características de la administración estatal y de los órganos encargados de su control.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabajo de Tesis se desarrolla en el marco de los escenarios de ejecución distribuida de servicios móviles y contribuye a la definición y desarrollo del concepto de usuario prosumer. El usuario prosumer se caracteriza por utilizar su teléfono móvil para crear, proveer y ejecutar servicios. Este nuevo modelo de usuario contribuye al avance de la sociedad de la información, ya que el usuario prosumer se transforma de creador de contenidos a creador de servicios (estos últimos formados por contenidos y la lógica para acceder a ellos, procesarlos y representarlos). El objetivo general de este trabajo de Tesis es la provisión de un modelo de creación, distribución y ejecución de servicios para entorno móvil que permita a los usuarios no programadores (usuarios prosumer), pero expertos en un determinado dominio, crear y ejecutar sus propias aplicaciones y servicios. Para ello se definen, desarrollan e implementan metodologías, procesos, algoritmos y mecanismos adaptables a dominios específicos, para construir entornos de ejecución distribuida de servicios móviles para usuarios prosumer. La provisión de herramientas de creación adaptadas a usuarios no expertos es una tendencia actual que está siendo desarrollada en distintos trabajos de investigación. Sin embargo, no se ha propuesto una metodología de desarrollo de servicios que involucre al usuario prosumer en el proceso de diseño, desarrollo, implementación y validación de servicios. Este trabajo de Tesis realiza un estudio de las metodologías y tecnologías más innovadoras relacionadas con la co‐creación y utiliza este análisis para definir y validar una metodología que habilita al usuario para ser el responsable de la creación de servicios finales. Siendo los entornos móviles prosumer (mobile prosumer environments) una particularización de los entornos de ejecución distribuida de servicios móviles, en este trabajo se tesis se investiga en técnicas de adaptación, distribución, coordinación de servicios y acceso a recursos identificando como requisitos las problemáticas de este tipo de entornos y las características de los usuarios que participan en los mismos. Se contribuye a la adaptación de servicios definiendo un modelo de variabilidad que soporte la interdependencia entre las decisiones de personalización de los usuarios, incorporando mecanismos de guiado y detección de errores. La distribución de servicios se implementa utilizando técnicas de descomposición en árbol SPQR, cuantificando el impacto de separar cualquier servicio en distintos dominios. Considerando el plano de comunicaciones para la coordinación en la ejecución de servicios distribuidos hemos identificado varias problemáticas, como las pérdidas de enlace, conexiones, desconexiones y descubrimiento de participantes, que resolvemos utilizando técnicas de diseminación basadas en publicación subscripción y algoritmos Gossip. Para lograr una ejecución flexible de servicios distribuidos en entorno móvil, soportamos la adaptación a cambios en la disponibilidad de los recursos, proporcionando una infraestructura de comunicaciones para el acceso uniforme y eficiente a recursos. Se han realizado validaciones experimentales para evaluar la viabilidad de las soluciones propuestas, definiendo escenarios de aplicación relevantes (el nuevo universo inteligente, prosumerización de servicios en entornos hospitalarios y emergencias en la web de la cosas). Abstract This Thesis work is developed in the framework of distributed execution of mobile services and contributes to the definition and development of the concept of prosumer user. The prosumer user is characterized by using his mobile phone to create, provide and execute services. This new user model contributes to the advancement of the information society, as the prosumer is transformed from producer of content, to producer of services (consisting of content and logic to access them, process them and represent them). The overall goal of this Thesis work is to provide a model for creation, distribution and execution of services for the mobile environment that enables non‐programmers (prosumer users), but experts in a given domain, to create and execute their own applications and services. For this purpose I define, develop and implement methodologies, processes, algorithms and mechanisms, adapted to specific domains, to build distributed environments for the execution of mobile services for prosumer users. The provision of creation tools adapted to non‐expert users is a current trend that is being developed in different research works. However, it has not been proposed a service development methodology involving the prosumer user in the process of design, development, implementation and validation of services. This thesis work studies innovative methodologies and technologies related to the co‐creation and relies on this analysis to define and validate a methodological approach that enables the user to be responsible for creating final services. Being mobile prosumer environments a specific case of environments for distributed execution of mobile services, this Thesis work researches in service adaptation, distribution, coordination and resource access techniques, and identifies as requirements the challenges of such environments and characteristics of the participating users. I contribute to service adaptation by defining a variability model that supports the dependency of user personalization decisions, incorporating guiding and error detection mechanisms. Service distribution is implemented by using decomposition techniques based on SPQR trees, quantifying the impact of separating any service in different domains. Considering the communication level for the coordination of distributed service executions I have identified several problems, such as link losses, connections, disconnections and discovery of participants, which I solve using dissemination techniques based on publish‐subscribe communication models and Gossip algorithms. To achieve a flexible distributed service execution in mobile environments, I support adaptation to changes in the availability of resources, while providing a communication infrastructure for the uniform and efficient access to resources. Experimental validations have been conducted to assess the feasibility of the proposed solutions, defining relevant application scenarios (the new intelligent universe, service prosumerization in hospitals and emergency situations in the web of things).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hoy en día, existen numerosos sistemas (financieros, fabricación industrial, infraestructura de servicios básicos, etc.) que son dependientes del software. Según la definición de Ingeniería del Software realizada por I. Sommerville, “la Ingeniería del Software es una disciplina de la ingeniería que comprende todos los aspectos de la producción de software desde las etapas iniciales de la especificación del sistema, hasta el mantenimiento de éste después de que se utiliza.” “La ingeniería del software no sólo comprende los procesos técnicos del desarrollo de software, sino también actividades tales como la gestión de proyectos de software y el desarrollo de herramientas, métodos y teorías de apoyo a la producción de software.” Los modelos de proceso de desarrollo software determinan una serie de pautas para poder desarrollar con éxito un proyecto de desarrollo software. Desde que surgieran estos modelos de proceso, se investigado en nuevas maneras de poder gestionar un proyecto y producir software de calidad. En primer lugar surgieron las metodologías pesadas o tradicionales, pero con el avance del tiempo y la tecnología, surgieron unas nuevas llamadas metodologías ágiles. En el marco de las metodologías ágiles cabe destacar una determinada práctica, la integración continua. Esta práctica surgió de la mano de Martin Fowler, con el objetivo de facilitar el trabajo en grupo y automatizar las tareas de integración. La integración continua se basa en la construcción automática de proyectos con una frecuencia alta, promoviendo la detección de errores en un momento temprano para poder dar prioridad a corregir dichos errores. Sin embargo, una de las claves del éxito en el desarrollo de cualquier proyecto software consiste en utilizar un entorno de trabajo que facilite, sistematice y ayude a aplicar un proceso de desarrollo de una forma eficiente. Este Proyecto Fin de Grado (PFG) tiene por objetivo el análisis de distintas herramientas para configurar un entorno de trabajo que permita desarrollar proyectos aplicando metodologías ágiles e integración continua de una forma fácil y eficiente. Una vez analizadas dichas herramientas, se ha propuesto y configurado un entorno de trabajo para su puesta en marcha y uso. Una característica a destacar de este PFG es que las herramientas analizadas comparten una cualidad común y de alto valor, son herramientas open-source. El entorno de trabajo propuesto en este PFG presenta una arquitectura cliente-servidor, dado que la mayoría de proyectos software se desarrollan en equipo, de tal forma que el servidor proporciona a los distintos clientes/desarrolladores acceso al conjunto de herramientas que constituyen el entorno de trabajo. La parte servidora del entorno propuesto proporciona soporte a la integración continua mediante herramientas de control de versiones, de gestión de historias de usuario, de análisis de métricas de software, y de automatización de la construcción de software. La configuración del cliente únicamente requiere de un entorno de desarrollo integrado (IDE) que soporte el lenguaje de programación Java y conexión con el servidor. ABSTRACT Nowadays, numerous systems (financial, industrial production, basic services infrastructure, etc.) depend on software. According to the Software Engineering definition made by I.Sommerville, “Software engineering is an engineering discipline that is concerned with all aspects of software production from the early stages of system specification through to maintaining the system after it has gone into use.” “Software engineering is not just concerned with the technical processes of software development. It also includes activities such as software project management and the development of tools, methods, and theories to support software production.” Software development process models determine a set of guidelines to successfully develop a software development project. Since these process models emerged, new ways of managing a project and producing software with quality have been investigated. First, the so-called heavy or traditional methodologies appeared, but with the time and the technological improvements, new methodologies emerged: the so-called agile methodologies. Agile methodologies promote, among other practices, continuous integration. This practice was coined by Martin Fowler and aims to make teamwork easier as well as automate integration tasks. Nevertheless, one of the keys to success in software projects is to use a framework that facilitates, systematize, and help to deploy a development process in an efficient way. This Final Degree Project (FDP) aims to analyze different tools to configure a framework that enables to develop projects by applying agile methodologies and continuous integration in an easy and efficient way. Once tools are analyzed, a framework has been proposed and configured. One of the main features of this FDP is that the tools under analysis share a common and high-valued characteristic: they are open-source. The proposed framework presents a client-server architecture, as most of the projects are developed by a team. In this way, the server provides access the clients/developers to the tools that comprise the framework. The server provides continuous integration through a set of tools for control management, user stories management, software quality management, and software construction automatization. The client configuration only requires a Java integrated development environment and network connection to the server.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Con la puesta en vigencia de la Norma Internacional Sobre Control de Calidad 1 (NICC1), las firmas de auditoría se ven en la necesidad de implementar un sistema de control de calidad aplicado a la organización interna, del cual hace referencia dicha normativa, que permita a los profesionales de la contaduría pública, ofrecer y brindar sus servicios bajo lineamientos que estén enfocados a proporcionarlos con propiedad, de manera que sus clientes se sientan satisfechos de que la firma y el personal cumplen con los estándares y requerimientos legales regulatorios. Uno de los principales problemas a los que se enfrentan las entidades auditoras por no aplicar las políticas y procedimientos de control de calidad adecuados, es la pérdida de credibilidad del trabajo que desempeñan, ya que éstas no siguen el conjunto de reglas y principios que aseguren que los servicios prestados por la firma cumplen con lo que establece la NICC1, además de estar propensa a una mala evaluación de la Corte de Cuentas en su proceso de supervisión de acuerdo a lo establecido en el art. 43 del Reglamento para el registro y la contratación de firmas privadas de auditoría. En la investigación se estudió una muestra de 48 firmas autorizadas por la Corte de Cuentas de la República para la ejecución de trabajos de auditoría a entidades públicas y a organismos que perciban fondos del Estado, y se desarrolló bajo un tipo de estudio deductivo ya que mediante un análisis previo se procedió a encontrar situaciones desconocidas, partiendo de las que ya se conocían y con el cual se determinaron las consecuencias ocasionadas, mediante el enfoque analítico descriptivo se consiguió describir y analizar la forma en que se manifiesta el problema en estudio, detallando y explicando todos los componentes del mismo, analizando las posibles causas, características, y la fuente principal que origina el problema. Con la finalidad de comprender la situación actual de la problemática se utilizaron técnicas e instrumentos tales como, la encuesta y el cuestionario los cuales contribuyeron a determinar las valoraciones siguientes: El 85% de las firmas realizan entre una y tres auditorias gubernamentales en un año, de las cuales un 35% no cuenta con un manual de control de calidad que cumpla con los requerimientos determinados en la NICC1 y las Normas de Auditoría Gubernamental (NAG), aun cuando en éstas se establece la obligatoriedad de contar con un sistema de control de calidad idóneo para el desarrollo de dichos trabajos. Actualmente, las entidades auditoras consideran que la NICC1, juega un rol muy importante; ya que contribuye dando mayor credibilidad a la información generada por las ellas, sin embargo el 56% de las mismas, no cuentan con un departamento o personal encargado de la revisión y mantenimiento del control de calidad, además no se someten a revisiones externas de control de calidad, lo cual puede traducirse en un deficiente monitoreo de los controles internos establecidos por la entidad, hecho que aumenta el peligro de la no detección de errores a tiempo y el inminente riesgo de no estar desarrollando un trabajo con calidad. El 33% de los encuestados consideran que el aspecto más importante para lograr mantener la calidad dentro de la firma está relacionado con el cumplimiento de la normativa internacional y nacional relativa al trabajo de auditoría, el 85% afirma realizar revisiones del manual de control de calidad cuando consideran necesario, aun cuando veintisiete de las entidades, no posee políticas adecuadas en relación a la documentación del trabajo. Por lo tanto, las firmas no cuentan con un manual que cumpla con todos los requerimientos exigidos por las NAG, ni cumple con lo elementos señalados en la NICC1, por lo que las medidas de corrección no garantizan la calidad del trabajo ejecutado. Durante la investigación se ha podido determinar que las firmas privadas no realizan revisión externa de control de calidad, sin embargo las NAG establece la obligatoriedad de realizarlas por lo menos cada tres años. Después de lo expuesto y considerando la importancia de garantizar la calidad en el desarrollo de la actividad profesional, la cual no está siendo asegurada por el sistema con el que actualmente cuentan las firmas, se propone en este trabajo un manual de políticas y procedimientos de control de calidad para firmas que realizan auditorías gubernamentales, que contribuya a detectar deficiencias en la calidad de un trabajo de auditoría y determinar las consecuencias del no cumplimiento de la normativa, y permita a la entidad realizar medidas correctivas a las deficiencias encontradas con la seguridad de que éstas cubrirán razonablemente los riesgos asociados al control de calidad, al momento de realizar auditorías gubernamentales y establecer mecanismos de tal forma que cumplan con todos los requerimientos establecidos en las NAG y en la NICC1, con el fin de no violentar ningún requerimiento, además de garantizar la calidad del trabajo realizado.