1000 resultados para Detección de fallos
Resumo:
En este proyecto se realiza el diseño y la implementación de un sistema que genera realidad aumentada, mediante la detección de vehículos que se encuentran en una trayectoria, y sirve de base para la conducción autónoma en vehículospara ambientes nocturnos ya que se ha observado mediante el estudio del arte que no existen aplicaciones de este tipo en dichas condiciones. La implementación de dicho sistema se realiza mediante una aplicación móvil en el sistema operativo de Android, que se apoya en sus librerías para el uso de sensores y la creación de menús, y las de OpenCV para el tratamiento de las imágenes. Además, se han realizado una serie de pruebas para demostrar la validez y la eficiencia de dicho algoritmo y se presenta al usuario mediante una aplicación de fácil manejo y uso en un dispositivo móvil. ABSTRACT. This project is about the design and implemantation of a system which generates augmented reality by detecting vehicles that stand along a followed trayectory, working out the basis for autonomus driving in night environments, because it was noticed that any other applications exist for this particular purpose, under the given circumstances. Implementation works through an Android mobile application, and learns over this operative system libraries in order to work with sensors, menu configurations, and OpenCV for image processing. A number of tests were run to prove the algorithm right and efficient; and it is introduced to the users via an easy-to-use app on a mobile device.
Resumo:
Esta tesis doctoral presenta un procedimiento integral de control de calidad en centrales fotovoltaicas, que comprende desde la fase inicial de estimación de las expectativas de producción hasta la vigilancia del funcionamiento de la instalación una vez en operación, y que permite reducir la incertidumbre asociada su comportamiento y aumentar su fiabilidad a largo plazo, optimizando su funcionamiento. La coyuntura de la tecnología fotovoltaica ha evolucionado enormemente en los últimos años, haciendo que las centrales fotovoltaicas sean capaces de producir energía a unos precios totalmente competitivos en relación con otras fuentes de energía. Esto hace que aumente la exigencia sobre el funcionamiento y la fiabilidad de estas instalaciones. Para cumplir con dicha exigencia, es necesaria la adecuación de los procedimientos de control de calidad aplicados, así como el desarrollo de nuevos métodos que deriven en un conocimiento más completo del estado de las centrales, y que permitan mantener la vigilancia sobre las mismas a lo largo del tiempo. Además, los ajustados márgenes de explotación actuales requieren que durante la fase de diseño se disponga de métodos de estimación de la producción que comporten la menor incertidumbre posible. La propuesta de control de calidad presentada en este trabajo parte de protocolos anteriores orientados a la fase de puesta en marcha de una instalación fotovoltaica, y las complementa con métodos aplicables a la fase de operación, prestando especial atención a los principales problemas que aparecen en las centrales a lo largo de su vida útil (puntos calientes, impacto de la suciedad, envejecimiento…). Además, incorpora un protocolo de vigilancia y análisis del funcionamiento de las instalaciones a partir de sus datos de monitorización, que incluye desde la comprobación de la validez de los propios datos registrados hasta la detección y el diagnóstico de fallos, y que permite un conocimiento automatizado y detallado de las plantas. Dicho procedimiento está orientado a facilitar las tareas de operación y mantenimiento, de manera que se garantice una alta disponibilidad de funcionamiento de la instalación. De vuelta a la fase inicial de cálculo de las expectativas de producción, se utilizan los datos registrados en las centrales para llevar a cabo una mejora de los métodos de estimación de la radiación, que es la componente que más incertidumbre añade al proceso de modelado. El desarrollo y la aplicación de este procedimiento de control de calidad se han llevado a cabo en 39 grandes centrales fotovoltaicas, que totalizan una potencia de 250 MW, distribuidas por varios países de Europa y América Latina. ABSTRACT This thesis presents a comprehensive quality control procedure to be applied in photovoltaic plants, which covers from the initial phase of energy production estimation to the monitoring of the installation performance, once it is in operation. This protocol allows reducing the uncertainty associated to the photovoltaic plants behaviour and increases their long term reliability, therefore optimizing their performance. The situation of photovoltaic technology has drastically evolved in recent years, making photovoltaic plants capable of producing energy at fully competitive prices, in relation to other energy sources. This fact increases the requirements on the performance and reliability of these facilities. To meet this demand, it is necessary to adapt the quality control procedures and to develop new methods able to provide a more complete knowledge of the state of health of the plants, and able to maintain surveillance on them over time. In addition, the current meagre margins in which these installations operate require procedures capable of estimating energy production with the lower possible uncertainty during the design phase. The quality control procedure presented in this work starts from previous protocols oriented to the commissioning phase of a photovoltaic system, and complete them with procedures for the operation phase, paying particular attention to the major problems that arise in photovoltaic plants during their lifetime (hot spots, dust impact, ageing...). It also incorporates a protocol to control and analyse the installation performance directly from its monitoring data, which comprises from checking the validity of the recorded data itself to the detection and diagnosis of failures, and which allows an automated and detailed knowledge of the PV plant performance that can be oriented to facilitate the operation and maintenance of the installation, so as to ensure a high operation availability of the system. Back to the initial stage of calculating production expectations, the data recorded in the photovoltaic plants is used to improved methods for estimating the incident irradiation, which is the component that adds more uncertainty to the modelling process. The development and implementation of the presented quality control procedure has been carried out in 39 large photovoltaic plants, with a total power of 250 MW, located in different European and Latin-American countries.
Resumo:
En los últimos años han surgido nuevos campos de las tecnologías de la información que exploran el tratamiento de la gran cantidad de datos digitales existentes y cómo transformarlos en conocimiento explícito. Las técnicas de Procesamiento del Lenguaje Natural (NLP) son capaces de extraer información de los textos digitales presentados en forma narrativa. Además, las técnicas de machine learning clasifican instancias o ejemplos en función de sus atributos, en distintas categorías, aprendiendo de otros previamente clasificados. Los textos clínicos son una gran fuente de información no estructurada; en consecuencia, información no explotada en su totalidad. Algunos términos usados en textos clínicos se encuentran en una situación de afirmación, negación, hipótesis o histórica. La detección de esta situación es necesaria para la estructuración de información, pero a su vez tiene una gran complejidad. Extrayendo características lingüísticas de los elementos, o tokens, de los textos mediante NLP; transformando estos tokens en instancias y las características en atributos, podemos mediante técnicas de machine learning clasificarlos con el objetivo de detectar si se encuentran afirmados, negados, hipotéticos o históricos. La selección de los atributos que cada token debe tener para su clasificación, así como la selección del algoritmo de machine learning utilizado son elementos cruciales para la clasificación. Son, de hecho, los elementos que componen el modelo de clasificación. Consecuentemente, este trabajo aborda el proceso de extracción de características, selección de atributos y selección del algoritmo de machine learning para la detección de la negación en textos clínicos en español. Se expone un modelo para la clasificación que, mediante el algoritmo J48 y 35 atributos obtenidos de características lingüísticas (morfológicas y sintácticas) y disparadores de negación, detecta si un token está negado en 465 frases provenientes de textos clínicos con un F-Score del 73%, una exhaustividad del 66% y una precisión del 81% con una validación cruzada de 10 iteraciones. ---ABSTRACT--- New information technologies have emerged in the recent years which explore the processing of the huge amount of existing digital data and its transformation into knowledge. Natural Language Processing (NLP) techniques are able to extract certain features from digital texts. Additionally, through machine learning techniques it is feasible to classify instances according to different categories, learning from others previously classified. Clinical texts contain great amount of unstructured data, therefore information not fully exploited. Some terms (tokens) in clinical texts appear in different situations such as affirmed, negated, hypothetic or historic. Detecting this situation is necessary for the structuring of this data, however not simple. It is possible to detect whether if a token is negated, affirmed, hypothetic or historic by extracting its linguistic features by NLP; transforming these tokens into instances, the features into attributes, and classifying these instances through machine learning techniques. Selecting the attributes each instance must have, and choosing the machine learning algorithm are crucial issues for the classification. In fact, these elements set the classification model. Consequently, this work approaches the features retrieval as well as the attributes and algorithm selection process used by machine learning techniques for the detection of negation in clinical texts in Spanish. We present a classification model which, through J48 algorithm and 35 attributes from linguistic features (morphologic and syntactic) and negation triggers, detects whether if a token is negated in 465 sentences from historical records, with a result of 73% FScore, 66% recall and 81% precision using a 10-fold cross-validation.
Resumo:
Este proyecto de fin de carrera surge como una necesidad de realizar un control de calidad en un Sistema de Información Geográfico (SIG en adelante). En el caso de GISProp, su objetivo es el de localizar en un conjunto de objetos cartográficos si existe superficie duplicada con algún otro objeto cartográfico del mismo tipo. Para ello, se utilizan técnicas de agrupamiento espacial, sistemas expertos y una aplicación GIS para obtener el área de los objetos cartográficos. Además, los datos geo-espaciales pueden variar en el tiempo, por lo tanto, se debe tener en cuenta los elementos que varían y comparar única y exclusivamente los objetos cartográficos que correspondan con aquellos que se encuentren en su área de influencia.
Resumo:
Uno de los principales objetivos de los sistemas informáticos es ser capaces de detectar y controlar aquellos accesos no autorizados, o incluso prevenirlos antes de que se produzca una pérdida de valor en el sistema. Se busca encontrar un modelo general que englobe todos los posibles casos de entradas no deseadas al sistema y que sea capaz de aprender para detectar intrusiones futuras. En primer lugar se estudiará la relevancia de las técnicas utilizadas para el almacenamiento de la información. Big Data ilustra los elementos esenciales necesarios para el almacenamiento de los datos con un formato único identificable y unos atributos característicos que los definan, para su posterior análisis. El método de almacenamiento elegido influirá en las técnicas de análisis y captura de valor utilizadas, dado que existe una dependencia directa entre el formato en el que se almacena la información y el valor específico que se pretende obtener de ella. En segundo lugar se examinarán las distintas técnicas de análisis y captura de datos actuales, y los diferentes resultados que se pueden obtener. En este punto aparece el concepto de machine learning y su posible aplicación para detección de anomalías. La finalidad es lograr generalizar diferentes comportamientos a partir de una información no estructurada y generar un modelo aplicable a nuevas entradas al sistema que no son conocidas con anterioridad. En último lugar, se analizarán diferentes entornos de ciberseguridad y se propondrá un conjunto de recomendaciones de diseño o ajustes respecto a las técnicas mencionadas anteriormente, realizando una breve clasificación según las variables de entrada que se tienen y el resultado que se desea obtener. El propósito de este Trabajo de Fin de Grado es, por tanto, la comparación general de las diferentes técnicas actuales de detección de comportamientos anómalos en un sistema informático, tales como el aprendizaje de máquinas o minería de datos, así como de un planteamiento de cuáles son las mejores opciones según el tipo de valor que se desea extraer de la información almacenada.
Resumo:
El objetivo de este proyecto fue crear una herramienta de evaluación para gimnastas de rítmica, utilizando una metodología y materiales sencillos que cualquier entrenador pudiera reproducir. La herramienta de evaluación propuesta tiene como objetivo seleccionar gimnastas de los grupos de escuela en la franja de edad de 9 a 10 años, para integrar, en los grupos de competición, a las gimnastas que posean las capacidades físicas más adecuadas. De forma complementaria se propuso un cuestionario de predisposición hacia la competición de gimnasta y padres Se seleccionaron ocho pruebas de condición física y dos cuestionarios para aproximarnos a la predisposición hacia la competición padres. Se aplicó esta herramienta con dos grupos de gimnastas: Grupo escuela (n=13) y Grupo de competición (n=17). Se comprobó que la media resultante de la evaluación de las capacidades física muestra una diferencia estadísticamente significativa (p<0.001) entre los dos grupos. Asimismo los resultados registrados en los cuestionarios de predisposición hacia la competición muestran diferencias significativas (p<0.001). Los resultados parecen indicar la adecuación de la herramienta para el objetivo propuesto de selección de gimnastas para el inicio de un proceso de entrenamiento enfocado hacia la competición.
Resumo:
La escritura es una actividad psicomotora muy importante en el desarrollo infantil. Tanto es así que su correcto aprendizaje condicionará el futuro de una persona, pues estará presente en todo tipo de situaciones cotidianas. La disgrafía es el término utilizado para referirse a los problemas relacionados con la escritura, y se manifiesta cuando la escritura de un determinado sujeto es ilegible o lenta como resultado de un aprendizaje fallido de los procesos motores de la escritura. Estos problemas intentan resolverse durante el desarrollo infantil mediante diferentes pruebas que miden las capacidades visomotoras de los niños basándose en criterios de forma (número y posición correcta de trazos). Sin embargo, a lo largo de los años estos criterios han demostrado no ser totalmente precisos en la detección prematura de posibles casos de disgrafía. Por ello, en este proyecto se ha desarrollado una aplicación que ayuda a ampliar la fiabilidad de los test actuales, utilizando un criterio cinemático. Esta aplicación, desarrollada para una tableta Android, muestra al niño una serie de figuras que él debe copiar en la tableta haciendo uso de un lápiz óptico. Los trazos registrados por la aplicación son analizados para valorar aspectos como la fluidez, continuidad y regularidad, ampliando así la fiabilidad de los test actuales, lo que permite desechar falsos positivos y detectar irregularidades que antes no podían ser detectadas. La aplicación desarrollada ha sido validada con un total de ocho niños de cuatro años y siete meses de media de edad, confirmando que cumple con las expectativas planteadas. ABSTRACT. Writing is a very important psychomotor activity in child development because it will be present in all kinds of everyday situations; therefore its proper learning will determine the future of the individual. Dysgraphia is the term used to refer to the problems related to writing, and it takes place when a particular person’s writing is unreadable or slow-moving as a result of a failed learning of writing motor processes. These problems are usually detected by different tests that measure children’s visual motor abilities based on shape criteria (correct number and position of strikes). However, over the years these criteria haven’t proved to be completely accurate in the early detection of possible cases of dysgraphia. Therefore, in this project is presented an application that extends the reliability of current test, using a kinematic approach. This application, developed for an Android tablet, displays a series of figures that the child must copy to the tablet by using a stylus. Strokes recorded by the application are then analyzed to assess aspects such as fluidity, continuity and regularity, expanding the reliability of the current test, discarding false positives created by the conventional criteria and detecting irregularities that previously could not be detected. The developed application has been validated with a total of eight children about four years and seven months in average age, confirming that the application fulfills the initial expectations.
Resumo:
En este proyecto se realiza el diseño e implementación de un sistema que detecta anomalías en las entradas de entornos controlados. Para ello, se hace uso de las últimas técnicas en visión por computador y se avisa visual y auditivamente, mediante un sistema hardware que recibe señales del ordenador al que está conectado. Se marca y fotografía, a una o varias personas, que cometen una infracción en las entradas de un establecimiento, vigilado con sistemas de vídeo. Las imágenes se almacenan en las carpetas correspondientes. El sistema diseñado es colaborativo, por lo tanto, las cámaras que intervienen, se comunican entre ellas a través de estructuras de datos con el objetivo de intercambiar información. Además, se utiliza conexión inalámbrica desde un dispositivo móvil para obtener una visión global del entorno desde cualquier lugar del mundo. La aplicación se desarrolla en el entorno MATLAB, que permite un tratamiento de la señal de imagen apropiado para el presente proyecto. Asimismo, se proporciona al usuario una interfaz gráfica con la que interactuar de manera sencilla, evitando así, el cambio de parámetros en la estructura interna del programa cuando se quiere variar el entorno o el tipo de adquisición de datos. El lenguaje que se escoge facilita la ejecución en distintos sistemas operativos, incluyendo Windows o iOS y, de esta manera, se proporciona flexibilidad. ABSTRACT. This project studies the design and implementation of a system that detects any anomalies on the entrances to controlled environments. To this end, it is necessary the use of last techniques in computer vision in order to notify visually and aurally, by a hardware system which receives signs from the computer it is connected to. One or more people that commit an infringement while entering into a secured environment, with video systems, are marked and photographed and those images are stored in their belonging file folder. This is a collaborative design system, therefore, every involved camera communicates among themselves through data structures with the purpose of exchanging information. Furthermore, to obtain a global environment vision from any place in the world it uses a mobile wireless connection. The application is developed in MATLAB environment because it allows an appropriate treatment of the image signal for this project. In addition, the user is given a graphical interface to easily interact, avoiding with this, changing any parameters on the program’s intern structure, when it requires modifying the environment or the data type acquisition. The chosen language eases its execution in different operating systems, including Windows or iOS, providing flexibility.
Resumo:
La simulación de enfermedad ha estado siempre asociada a la evitación de deberes militares. Tanto es así, que la etimología de la palabra malingering (simulación en inglés) proviene de la vida militar. De hecho, los principales manuales de diagnóstico psiquiátrico todavía mantienen los contextos militares como indicio para sospechar simulación. Además, esta forma de evitar obligaciones públicas se concebía como un intento de deserción y, en consecuencia, se identificaba con la cobardía y la deslealtad. Los Códigos de Justicia Militar de diferentes países así lo han contemplado y, en consecuencia, condenado. Debido a que la mayoría de los problemas psicológicos carecen de sustrato biológico, esta área de la salud ha estado inmersa en la subjetividad, favoreciendo que se relacionara, más que otras, con la sospecha de perfiles psicológicos deshonestos. En este contexto de arbitrariedad, los problemas mentales en población militar han sufrido un doble estigma. Por una parte, la fortaleza guerrera era incompatible con este tipo de problemas, convirtiéndolos en signo de debilidad. Mientras que, por otra, cualquier intento de evitación del servicio militar (como podían ser los problemas psicológicos aparentemente simulados) se asimilaba a un acto desleal. Por lo tanto, los soldados con problemas psicológicos -reales o simulados- eran estigmatizados, bien por debilidad, bien por cobardía o deslealtad. Así, ante las necesidades públicas de Defensa Territorial y/o Nacional, cristalizadas en una estricta cadena de mando cuyos objetivos eran incompatibles con la debilidad mental y la cobardía, la percepción de los problemas psicológicos partía de una visión intuitiva, cargada de connotaciones carentes de empatía y afianzada en este doble estigma. El problema para la sanidad militar –o los expertos de cada momento histórico- era determinar la veracidad de los cuadros psicopatológicos de los soldados, pero sin pruebas objetivas en las que basarse y bajo la presión de la cadena de mando...
Resumo:
El control seguro y efectivo de las malas hierbas según los principios establecidos por la Agricultura de Precisión requiere una tecnología específica, avanzada y de coste asumible dentro de los márgenes de beneficio. El uso de plataformas móviles autónomas tanto terrestres como aéreas equipadas con sistemas de percepción innovadores, sistemas inteligentes de toma de decisión y herramientas que permitan la aplicación precisa de los tratamientos herbicidas, reduce el coste asociado a la operación así como los potenciales daños ambientales y el riesgo para los agricultores. Varios son los grupos internacionales de investigación dedicados al desarrollo de tecnologías basadas en sistemas robóticos capaces de optimizar las operaciones complejas implicadas en este tipo de tratamientos de precisión. El desarrollo de sistemas autónomos de ayuda al tratamiento preciso, tanto de cultivos extensivos (malas hierbas) como de leñosos, es el objetivo principal del proyecto RHEA (Robot Fleets for Highly Effective Agriculture and Forestry Management), financiado por el 7º Programa Marco de la CE y dirigido a minimizar los insumos (agroquímicos, combustible, etc.) a la vez que garantizar la calidad y seguridad del producto así como cubrir totalmente el campo independientemente del tamaño que éste tenga. RHEA propone utilizar una flota de robots pequeños/medianos tanto aéreos como terrestres para la inspección/monitorización y posterior aplicación de fitosanitarios, lo que presenta múltiples ventajas frente al tratamiento basado en la habitual máquina de mayores dimensiones y más tradicional. Entre otras, una flota de robots de tamaño pequeño/mediano reduce el impacto sobre la compactación del suelo e interactúa de un modo más seguro con los operarios, ya que la detección e interacción se puede distribuir en varios sistemas de detección y gestión de fallos como los propuestos en la presente tesis. El trabajo de investigación presentado en esta tesis se ha desarrollado dentro de este proyecto europeo y está relacionado con el diseño, desarrollo y evaluación del nivel más alto de la arquitectura RHEA, en otras palabras, con los tres aspectos fundamentales para conseguir que los robots de la flota ejecuten el trabajo eficientemente y sin intervención humana, es decir, con la planificación, la supervisión y la gestión completa e integrada de las tareas de inspección y tratamiento...
Resumo:
Las herramientas de genotipado en tuberculosis fueron desarrolladas inicialmente para la realización de estudios epidemiológicos. Sin embargo han permitido asimismo desvelar la complejidad clonal existente en las infecciones causadas por Mycobacterium tuberculosis (MTB) y Mycobacterium bovis (M. bovis), poniendo así en cuestión la asunción de que cada episodio de tuberculosis (TB) estuviera causado por una única cepa. De este modo se comenzaron a describir situaciones de coinfección por más de una cepa (infección mixta) o bien de presencia simultánea de variantes clonales (infección policlonal), pudiendo estas, además, ofrecer una distribución heterogénea de las mismas en los diferentes tejidos infectados (infección compartimentalizada). Sin embargo, son pocos los estudios existentes entorno a estos fenómenos, y los que se han realizado atienden a la mera descripción de casos anecdóticos o al estudio de estos eventos en poblaciones en donde la incidencia de TB es alta. Así, el primer objetivo de esta tesis se centró en dimensionar la complejidad clonal existente en las infecciones por MTB en una población no seleccionada, en un entorno de moderada incidencia, donde las expectativas de encontrar la citada complejidad eran escasas. Mediante el análisis por RFLP-IS6110 y MIRU-VNTR se detectaron infecciones complejas en 11 pacientes con TB pulmonar (1,6%) y en 10 pacientes con TB pulmonar y extrapulmonar (14,1%). De estos 21 casos, 9 correspondieron a infecciones mixtas y 12 a infecciones policlonales. Por último, en 9 casos (5 pacientes con infección mixta y 4 con infección policlonal) se documentó la compartimentalización de la infección. Tras la descripción sistemática de los casos de TB con infecciones complejas, nos centramos en el estudio de una de sus modalidades, la infección policlonal. En concreto decidimos abordar la evaluación del posible significado funcional que pudiera conllevar la adquisición de las sutiles reorganizaciones genéticas identificadas entre variantes clonales, que surgen como resultado de eventos de microevolución...
Resumo:
El presente trabajo trata de poner de manifiesto el riesgo, para jueces y tribunales, de valorar de forma acrí-tica los informes periciales psicológicos referidos a la valoración del daño psíquico en supuestos de abuso sexual infantil (ASI). Desde la revisión bibliográfica realizada se han detectado serias limitaciones para detectar ASI en la utilización de indicadores clínicos que han surgido del contexto sanitario y asistencial. Se cuestiona el m delo teórico subyacente y la rigurosidad de los estudios sobre las consecuencias psicológicas asociadas al ASI. Igualmente, son debatidos algunos métodos de exploración clínica, extrapolados al contexto forense, y desaconsejados debido a su baja fiabilidad y validez. Se concluye señalando lo inadecuado de trasladar modelos y procedimientos del contexto clínico-asistencial al pericial, y la necesidad de exigir requisitos técnicos a los informes forenses.
Resumo:
El hardware reconfigurable es una tecnología emergente en aplicaciones espaciales.Debido a las características de este hardware, pues su configuración lógica queda almacenada en memoria RAM estática, es susceptible de diversos errores que pueden ocurrir con mayor frecuencia cuando es expuesta a entornos de mayor radiación, como en misiones de exploración espacial. Entre estos se encuentran los llamados SEU o Single Event Upset, y suelen ser generados por partículas cósmicas, pues pueden tener la capacidad de descargar un transistor y de este modo alterar un valor lógico en memoria, y por tanto la configuración lógica del circuito. Por ello que surge la necesidad de desarrollar técnicas que permitan estudiar las vulnerabilidades de diversos circuitos, de forma económica y rápida, además de técnicas de protección de los mismos. En este proyecto nos centraremos en desarrollar una herramienta con este propósito, Nessy 7.0. La plataforma nos permitirá emular, detectar y analizar posibles errores causados por la radiación en los sistemas digitales. Para ello utilizaremos como dispositivo controlador, una Raspberry Pi 3, que contendrá la herramienta principal, y controlará y se comunicará con la FPGA que implementará el diseño a testear, en este caso una placa Nexys 4 DDR con una FPGA Artix-7. Finalmente evaluaremos un par de circuitos con la plataforma.