88 resultados para DIAGNOSTICO DE FALLOS

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tras una introducción a la necesidad de estudio en este tema, se muestran las distintas ramas que los investigadores van siguiendo en la actualidad, exponiéndose las diferencias entre el diagnóstico médico y el industrial, así como la necesidad de estructurar el conocimiento del problema diagnóstico. La aproximación a tiempo real como objetivo y la definición de los sistemas complejos caracterizan el problema propuesto» como método de resolución del problema del diagnóstico» bajo condiciones de tiempo limitado en la respuesta. Como resolución a este problema, se proponen una serie de procedimientos integrados que permiten dar una respuesta según el tiempo disponible y que se resumen en: - Procedimiento de construcción de un árbol de fallos a partir del conocimiento en forma de reglas. - Procedimientos de depuración estructural del árbol de fallos. - Nuevo procedimiento de construcción del conjunto de Conjuntos Mínimos» puerta a puerta del árbol. - Método de resolución de íncertidumbre en los Conjuntos Mínimos en base a parámetros de fiabilidad para el caso de tiempo suficiente. - Definición del concepto de Conjunto Virtual como procedimiento de resolución de tipo estructural del problema del diagnóstico. - Método de resolución de incertidumbre en Conjuntos Virtuales basado en parámetros de fiabilidad. Los métodos propuestos permiten, desde la detección de inconsistencias en el conocimiento, hasta la posibilidad de diagnóstico incompleto, pero seguro, cuando el tiempo es insuficiente, como caracterización del problema del diagnóstico en emergencias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo de la Patología, es importante contar con referencias objetivas para establecer un diagnóstico preciso, y la normativa de construcción es, sin lugar a dudas, la mejor referencia, especialmente cuando la patología entra en el campo pericial. El CTE ha supuesto un cambio importante en el enfoque de la normativa española de la construcción, pues parte de un planteamiento “prestacional” que culmina provisionalmente el camino emprendido por las ISO 6240:1980 e ISO 6241:1984, la Directiva Europea de Productos de Construcción 89/106/CEE (en España RD 1630/1992), y su definitivo reconocimiento en la LOE de 1999. Este camino arranca en los tres aspectos básicos que debe cubrir cualquier edificio: funcionalidad, seguridad y habitabilidad, que se desarrollan progresivamente mediante requisitos, exigencias y prestaciones. El incumplimiento de estas configura los “fallos” que puede presentar un edificio, y siendo en éstos en los que radica la calificación y la justificación de los problemas patológicos, interesa poder identificarlos con la mayor precisión posible. Sin embargo, este recorrido, aunque conceptualmente claro, no es explícito en el CTE. Se presentan en esta comunicación algunas aclaraciones conceptuales del enfoque prestacional, útiles para la patología, y la forma de hacer una lectura “interesada” del CTE, destinada a la identificación de las prestaciones que el Código exige a la edificación para, mediante su transformación “negativa”, formular los posibles “fallosdel edificio. Se presentan, finalmente, la lista de fallos básicos y específicos que se deduce de la Parte I del CTE, y un ejemplo de los más específicos que contiene el DB HS1 relativos a la permeabilidad de la fachada al agua de precipitaciones atmosféricas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Una lectura interesada del código técnico de la edificación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es implementar una herramienta de análisis automático de datos de operación para detectar fallos en instalaciones fotovoltaicas domésticas que disponen de sistemas de monitorización. Para ello se han analizado los datos de productividad de 10.650 sistemas fotovoltaicos (9657 situados en Francia y 993 en Bélgica). El Performance Ratio (PR) promedio ha sido de 76% en Francia y 78% en Bélgica, y el Performance Index (PI) promedio es de 85% en ambos países. La potencia real media de los módulos fotovoltaicos es un 4,9% inferior a su valor nominal anunciado en la ficha técnica del fabricante. Los módulos de heterounión (HIT) muestran productividades superiores a la media, mientras que los módulos de Cobre-Indio-Selenio (CIS) muestran una potencia real un 16% inferior a su valor nominal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Congreso de Patología y Rehabilitación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es implementar una herramienta de análisis automático de datos de operación para detectar fallos en instalaciones fotovoltaicas domésticas que disponen de sistemas de monitorización. Para ello se han analizado los datos de productividad de 10.650 sistemas fotovoltaicos (9.657 situados en Francia y 993 en Bélgica). El Performance Ratio (PR) promedio ha sido de 76% en Francia y 78% en Bélgica, y el Performance Index (PI) promedio es de 85% en ambos países. La potencia real media de los módulos fotovoltaicos es un 4,9% inferior a su valor nominal anunciado en la ficha técnica del fabricante. Los módulos de heterounión (HIT) muestran productividades superiores a la media, mientras que los módulos de Cobre-Indio-Selenio (CIS) muestran una potencia real un 16% inferior a su valor nominal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto fin de carrera es el desarrollo de un sistema de diagnóstico distribuido usando redes Bayesianas para alcanzar una lista de las causas más probables de fallo presentadas en el escenario del proyecto MAGNETO. Con ese objetivo, se ha desarrollado un sistema con arquitectura multi-agente que diagnostica las causas de fallo dado un síntoma usando inferencia sobre redes Bayesianas durante dicho proceso. Dentro del sistema existen diferentes tipos de agentes con sus funciones específicas que proporcionan un método distribuido de diagnóstico para conseguir mejor escalabilidad y modularidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad gran parte de las industrias utilizan o desarrollan plataformas, las cuales integran un número cada vez más elevado de sistemas complejos. El mantenimiento centralizado permite optimizar el mantenimiento de estas plataformas, por medio de la integración de un sistema encargado de gestionar el mantenimiento de todos los sistemas de la plataforma. Este Trabajo Fin de Máster (TFM) desarrolla el concepto de mantenimiento centralizado para sistemas complejos, aplicable a plataformas formadas por sistemas modulares. Está basado en la creciente demanda de las diferentes industrias en las que se utilizan este tipo de plataformas, como por ejemplo la industria aeronáutica, del ferrocarril y del automóvil. Para ello este TFM analiza el Estado del Arte de los sistemas de mantenimiento centralizados en diferentes industrias, además desarrolla los diferentes tipos de arquitecturas de sistemas, las técnicas de mantenimiento aplicables, así como los sistemas y técnicas de mantenimiento basados en funciones de monitorización y auto diagnóstico denominadas Built-In-Test Equipment (BITE). Adicionalmente, este TFM incluye el desarrollo e implementación de un modelo de un Entorno de Mantenimiento Centralizado en LabVIEW. Este entorno está formado por el modelo de un Sistema Patrón, así como el modelo del Sistema de Mantenimiento Centralizado y la interfaces entre ellos. El modelo del Sistema de Mantenimiento Centralizado integra diferentes funciones para el diagnóstico y aislamiento de los fallos. Así mismo, incluye una función para el análisis estadístico de los datos de fallos almacenados por el propio sistema, con el objetivo de proporcionar capacidades de mantenimiento predictivo a los sistemas del entorno. Para la implementación del modelo del Entorno de Mantenimiento Centralizado se han utilizado recursos de comunicaciones vía TCP/IP, modelización y almacenamiento de datos en ficheros XML y generación automática de informes en HTML. ABSTRACT. Currently several industries are developing or are making use of multi system platforms. These platforms are composed by many complex systems. The centralized maintenance allows the maintenance optimization, integrating a maintenance management system. This system is in charge of managing the maintenance dialog with the different and multiple platforms. This Master Final Project (TFM) develops the centralized maintenance concept for platforms integrated by modular and complex systems. This TFM is based on the demand of the industry that uses or develops multi system platforms, as aeronautic, railway, and automotive industries. In this way, this TFM covers and analyzes several aspects of the centralized maintenance systems like the State of the Art, for several industries. Besides this work develops different systems architecture types, maintenance techniques, and techniques and systems based on Built-in-test Equipment functions. Additionally, this TFM includes a LabVIEW Centralized System Environment model. This model is composed by a Standard System, the Centralized Maintenance System and the corresponding interfaces. Several diagnostic and fault isolation functions are integrated on the Centralized Maintenance Systems, as well a statistic analysis function, that provides with predictive maintenance capacity, based on the failure data stored by the system. Among others, the following resources have been used for the Centralized System Environment model development: TCP/IP communications, XML file data modelization and storing, and also automatic HTML reports generation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de materiales compuestos para el refuerzo, reparación y rehabilitación de estructuras de hormigón se ha convertido en una técnica muy utilizada en la última década. Con independencia de la técnica del refuerzo, uno de los principales condicionantes del diseño es el fallo de la adherencia entre el hormigón y el material compuesto, atribuida generalmente a las tensiones en la interfaz de estos materiales. Las propiedades mecánicas del hormigón y de los materiales compuestos son muy distintas. Los materiales compuestos comúnmente utilizados en ingeniería civil poseen alta resistencia a tracción y tienen un comportamiento elástico y lineal hasta la rotura, lo cual, en contraste con el ampliamente conocido comportamiento del hormigón, genera una clara incompatibilidad para soportar esfuerzos de forma conjunta. Esta incompatibilidad conduce a fallos relacionados con el despegue del material compuesto del sustrato de hormigón. En vigas de hormigón reforzadas a flexión o a cortante, el despegue del material compuesto es un fenómeno que frecuentemente condiciona la capacidad portante del elemento. Existen dos zonas potenciales de iniciación del despegue: los extremos y la zona entre fisuras de flexión o de flexión-cortante. En el primer caso, la experiencia a través de los últimos años ha demostrado que se puede evitar prolongando el refuerzo hasta los apoyos o mediante el empleo de algún sistema de anclaje. Sin embargo, las recomendaciones para evitar el segundo caso de despegue aún se encuentran lejos de poder prever el fallo de forma eficiente. La necesidad de medir la adherencia experimentalmente de materiales FRP adheridos al hormigón ha dado lugar a desarrollar diversos métodos por la comunidad de investigadores. De estas campañas experimentales surgieron modelos para el pronóstico de la resistencia de adherencia, longitud efectiva y relación tensión-deslizamiento. En la presente tesis se propone un ensayo de beam-test, similar al utilizado para medir la adherencia de barras de acero, para determinar las características de adherencia del FRP al variar la resistencia del hormigón y el espesor del adhesivo. A la vista de los resultados, se considera que este ensayo puede ser utilizado para investigar diferentes tipos de adhesivos y otros métodos de aplicación, dado que representa con mayor realidad el comportamiento en vigas reforzadas. Los resultados experimentales se trasladan a la comprobación del fallo por despegue en la región de fisuras de flexión o flexión cortante en vigas de hormigón presentando buena concordancia. Los resultados condujeron a la propuesta de que la limitación de la deformación constituye una alternativa simple y eficiente para prever el citado modo de fallo. Con base en las vigas analizadas, se propone una nueva expresión para el cálculo de la limitación de la deformación del laminado y se lleva a cabo una comparación entre los modelos existentes mediante un análisis estadístico para evaluar su precisión. Abstract The use of composite materials for strengthening, repairing or rehabilitating concrete structures has become more and more popular in the last ten years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stresses at the interface between these two materials. The mechanical properties of concrete and composite materials are very different. Composite materials commonly used in civil engineering possess high tensile strength (both static and long term) and they are linear elastic to failure, which, in contrast to the widely known behavior of concrete, there is a clear incompatibility which leads to bond-related failures. Bond failure in the composite material in bending- or shear-strengthened beams often controls bearing capacity of the strengthened member. Debonding failure of RC beams strengthened in bending by externally-bonded composite laminates takes place either, at the end (plate end debonding) or at flexure or flexure-shear cracks (intermediate crack debonding). In the first case, the experience over the past years has shown that this can be avoided by extending laminates up to the supports or by using an anchoring system. However, recommendations for the second case are still considered far from predicting failure efficiently. The need to experimentally measure FRP bonding to concrete has induced the scientific community to develop test methods for that purpose. Experimental campaigns, in turn, have given rise to models for predicting bond strength, effective length and the stress-slip relationship. The beam-type test proposed and used in this thesis to determine the bonding characteristics of FRP at varying concrete strengths and adhesive thicknesses was similar to the test used for measuring steel reinforcement to concrete bonding conditions. In light of the findings, this test was deemed to be usable to study different types of adhesives and application methods, since it reflects the behavior of FRP in strengthened beams more accurately than the procedures presently in place. Experimental results are transferred to the verification of peeling-off at flexure or flexure-shear cracks, presenting a good general agreement. Findings led to the conclusion that the strain limitation of laminate produces accurate predictions of intermediate crack debonding. A new model for strain limitation is proposed. Finally, a comprehensive evaluation based on a statistical analysis among existing models is carried out in order to assess their accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hasta la fecha se han evaluado distintas técnicas de verificación y validación teórica y empíricamente. La mayoría de las evaluaciones empíricas se han llevado a cabo sin sujetos, abstrayendo el efecto del sujeto sobre la técnica a la hora de aplicarla. Hemos evaluado mediante un experimento con sujetos la efectividad de tres técnicas de verificación y validación de código: partición en clases de equivalencia, cobertura de decisión y lectura de código mediante abstracciones sucesivas, estudiando la capacidad de las técnicas para la detección de fallos en tres programas distintos. Hemos replicado el experimento ocho veces en cuatro entornos distintos. Los resultados arrojan diferencias entre las técnicas y señalan variables contextuales del proyecto software que deberían considerarse cuando se quiera elegir o aplicar una técnica de verificación y validación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control de las cosechadoras por Internet permite diagnosticar a distancia y en unos minutos fallos, averías o avisos de mantenimiento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los pilares fundamentales que defienden el grupo de Normas ISO 9000 para garantizar la eficacia y eficiencia de los Sistemas de Gestión de la Calidad es la Mejora Continua. Para llevar a cabo el proceso de Mejora Continua es preciso empezar detectando y analizando donde estamos fallando y qué podemos mejorar. Organizaciones como PMI® asignan a esta actividad un proceso propio, que llaman también Lecciones Aprendidas y debe estar presente siempre, en todos los proyectos, ya que sólo conociendo nuestros fallos y analizando sus causas podemos tomar acciones preventivas que eviten que vuelvan a repetirse. Desafortunadamente, la experiencia práctica nos dice que, en la mayoría de los casos, esta actividad o no se ejecuta, o no se realiza de forma eficaz. La primera actividad que debería llevarse a cabo para detectar y analizar donde estamos fallando es la inspección del producto, en nuestro caso el edificio de viviendas, y realizar un listado de los defectos encontrados. Esta tarea, que debería realizarla la empresa constructora y ser supervisada por la Dirección de Ejecución de Obra, generalmente, no se realiza con el rigor suficiente que permita entregar al usuario su vivienda sin defectos aparentes. Se consideran repasos de postventa, dejando en el usuario final la responsabilidad de verificar el correcto acabado del producto que acaba de adquirir y que en la mayoría de los casos será la compra de mayor importe que realice en su vida. Cuando adquirimos cualquier objeto, un coche, un televisor, un teléfono móvil, etc., el fabricante es el responsable de verificar que el producto que está entregando al cliente o al suministrador no tiene daños o defectos aparentes. Sin embargo, cuando compramos una vivienda es el comprador o usuario final el que realiza, en la mayoría de los casos, esta verificación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modo tradicional de estimar el nivel de seguridad vial es el registro de accidentes de tráfico, sin embargo son altamente variables, aleatorios y necesitan un periodo de registro de al menos 3 años. Existen metodologías preventivas en las cuales no es necesario que ocurra un accidente para determinar el nivel de seguridad de una intersección, como lo es la técnica de los conflictos de tráfico, que introduce las mediciones alternativas de seguridad como cuantificadoras del riesgo de accidente. El objetivo general de la tesis es establecer una metodología que permita clasificar el riesgo en intersecciones interurbanas, en función del análisis de conflictos entre vehículos, realizado mediante las variables alternativas o indirectas de seguridad vial. La metodología para el análisis y evaluación temprana de la seguridad en una intersección, estará basada en dos medidas alternativas de seguridad: el tiempo hasta la colisión y el tiempo posterior a la invasión de la trayectoria. El desarrollo experimental se realizó mediante estudios de campo, para la parte exploratoria de la investigación, se seleccionaron 3 intersecciones interurbanas en forma de T donde se obtuvieron las variables que caracterizan los conflictos entre vehículos; luego mediante técnicas de análisis multivariante, se obtuvo los modelos de clasificación del riesgo cualitativo y cuantitativo. Para la homologación y el estudio final de concordancia entre el índice propuesto y el modelo de clasificación, se desarrollaron nuevos estudios de campo en 6 intersecciones interurbanas en forma de T. El índice de riesgo obtenido resulta una herramienta muy útil para realizar evaluaciones rápidas conducentes a estimar la peligrosidad de una intersección en T, debido a lo simple y económico que resulta obtener los registros de datos en campo, por medio de una rápida capacitación a operarios; la elaboración del informe de resultados debe ser por un especialista. Los índices de riesgo obtenidos muestran que las variables originales más influyentes son las mediciones de tiempo. Se pudo determinar que los valores más altos del índice de riesgo están relacionados a un mayor riesgo de que un conflicto termine en accidente. Dentro de este índice, la única variable cuyo aporte es proporcionalmente directo es la velocidad de aproximación, lo que concuerda con lo que sucede en un conflicto, pues una velocidad excesiva se manifiesta como un claro factor de riesgo ya que potencia todos los fallos humanos en la conducción. Una de las principales aportaciones de esta tesis doctoral a la ingeniería de carreteras, es la posibilidad de aplicación de la metodología por parte de administraciones de carreteras locales, las cuales muchas veces cuentan con recursos de inversión limitados para efectuar estudios preventivos, sobretodo en países en vías de desarrollo. La evaluación del riesgo de una intersección luego de una mejora en cuanto a infraestructura y/o dispositivos de control de tráfico, al igual que un análisis antes – después, pero sin realizar una comparación mediante la ocurrencia de accidentes, sino que por medio de la técnica de conflictos de tráfico, se puede convertir en una aplicación directa y económica. Además, se pudo comprobar que el análisis de componentes principales utilizado en la creación del índice de riesgo de la intersección, es una herramienta útil para resumir todo el conjunto de mediciones que son posibles de obtener con la técnica de conflictos de tráfico y que permiten el diagnóstico del riesgo de accidentalidad en una intersección. En cuanto a la metodología para la homologación de los modelos, se pudo establecer la validez y confiabilidad al conjunto de respuestas entregadas por los observadores en el registro de datos en campo, ya que los resultados de la validación establecen que la medición de concordancia de las respuestas entregadas por los modelos y lo observado, son significativas y sugieren una alta coincidencia entre ellos. ABSTRACT The traditional way of estimating road safety level is the record of occurrence of traffic accidents; however, they are highly variable, random, and require a recording period of at least three years. There are preventive methods which do not need an accident to determine the road safety level of an intersection, such as traffic conflict technique, which introduces surrogate safety measures as parameters for the evaluation of accident risks. The general objective of the thesis is to establish a methodology that will allow the classification of risk at interurban intersections as a function of the analysis of conflicts between vehicles performed by means of surrogate road safety variables. The proposal of a methodology for the analysis and early evaluation of safety at an intersection will be based on two surrogate safety measures: the time to collision and the post encroachment time. On the other hand, the experimental development has taken place by means of field studies in which the exploratory part of the investigation selected three interurban T-intersections where the application of the traffic conflict technique gave variables that characterize the conflicts between vehicles; then, using multivariate analysis techniques, the models for the classification of qualitative and quantitative risk were obtained. With the models new field studies were carried out at six interurban Tintersections with the purpose of developing the homologation and the final study of the agreement between the proposed index and the classification model. The risk index obtained is a very useful tool for making rapid evaluations to estimate the hazard of a T-intersection, as well as for getting simply and economically the field data records after a fast training of the workers and then preparing the report of results by a specialist. The risk indices obtained show that the most influential original variables are the measurements of time. It was determined that the highest risk index values are related with greater risk of a conflict resulting in an accident. Within this index, the only variable whose contribution is proportionally direct is the approach speed, in agreement with what happens in a conflict, because excessive speed appears as a clear risk factor at an intersection because it intensifies all the human driving faults. One of the main contributions of this doctoral thesis to road engineering is the possibility of applying the methodology by local road administrations, which very often have limited investment resources to carry out these kinds of preventive studies, particularly in developing countries. The evaluation of the risk at an intersection after an improvement in terms of infrastructure and/or traffic control devices, the same as a before/after analysis, without comparison of accident occurrence but by means of the traffic conflict technique, can become a direct and economical application. It is also shown that main components analysis used for producing the risk index of the intersection is a useful tool for summarizing the whole set of measurements that can be obtained with the traffic conflict technique and allow diagnosing accident risk at an intersection. As to the methodology for the homologation of the models, the validity and reliability of the set of responses delivered by the observers recording the field data could be established, because the results of the validation show that agreement between the observations and the responses delivered by the models is significant and highly coincident.