752 resultados para Fábricas-Mantenimiento y reparación


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto se ha desarrollado un código de MATLAB para el procesamiento de imágenes tomográficas 3D, de muestras de asfalto de carreteras en Polonia. Estas imágenes en 3D han sido tomadas por un equipo de investigación de la Universidad Tecnológica de Lodz (LUT). El objetivo de este proyecto es crear una herramienta que se pueda utilizar para estudiar las diferentes muestras de asfalto 3D y pueda servir para estudiar las pruebas de estrés que experimentan las muestras en el laboratorio. Con el objetivo final de encontrar soluciones a la degradación sufrida en las carreteras de Polonia, debido a diferentes causas, como son las condiciones meteorológicas. La degradación de las carreteras es un tema que se ha investigado desde hace muchos años, debido a la fuerte degradación causada por diferentes factores como son climáticos, la falta de mantenimiento o el tráfico excesivo en algunos casos. Es en Polonia, donde estos tres factores hacen que la composición de muchas carreteras se degrade rápidamente, sobre todo debido a las condiciones meteorológicas sufridas a lo largo del año, con temperaturas que van desde 30° C en verano a -20° C en invierno. Esto hace que la composición de las carreteras sufra mucho y el asfalto se levante, lo que aumenta los costos de mantenimiento y los accidentes de carretera. Este proyecto parte de la base de investigación que se lleva a cabo en la LUT, tratando de mejorar el análisis de las muestras de asfalto, por lo que se realizarán las pruebas de estrés y encontrar soluciones para mejorar el asfalto en las carreteras polacas. Esto disminuiría notablemente el costo de mantenimiento. A pesar de no entrar en aspectos muy técnicos sobre el asfalto y su composición, se ha necesitado realizar un estudio profundo sobre todas sus características, para crear un código capaz de obtener los mejores resultados. Por estas razones, se ha desarrollado en Matlab, los algoritmos que permiten el estudio de los especímenes 3D de asfalto. Se ha utilizado este software, ya que Matlab es una poderosa herramienta matemática que permite operar con matrices para realización de operaciones rápidamente, permitiendo desarrollar un código específico para el tratamiento y procesamiento de imágenes en 3D. Gracias a esta herramienta, estos algoritmos realizan procesos tales como, la segmentación de la imagen 3D, pre y post procesamiento de la imagen, filtrado o todo tipo de análisis microestructural de las muestras de asfalto que se están estudiando. El código presentado para la segmentación de las muestras de asfalto 3D es menos complejo en su diseño y desarrollo, debido a las herramientas de procesamiento de imágenes que incluye Matlab, que facilitan significativamente la tarea de programación, así como el método de segmentación utilizado. Respecto al código, este ha sido diseñado teniendo en cuenta el objetivo de facilitar el trabajo de análisis y estudio de las imágenes en 3D de las muestras de asfalto. Por lo tanto, el principal objetivo es el de crear una herramienta para el estudio de este código, por ello fue desarrollado para que pueda ser integrado en un entorno visual, de manera que sea más fácil y simple su utilización. Ese es el motivo por el cual todos estos algoritmos y funciones, que ha sido desarrolladas, se integrarán en una herramienta visual que se ha desarrollado con el GUIDE de Matlab. Esta herramienta ha sido creada en colaboración con Jorge Vega, y fue desarrollada en su proyecto final de carrera, cuyo título es: Segmentación microestructural de Imágenes en 3D de la muestra de asfalto utilizando Matlab. En esta herramienta se ha utilizado todo las funciones programadas en este proyecto, y tiene el objetivo de desarrollar una herramienta que permita crear un entorno gráfico intuitivo y de fácil uso para el estudio de las muestras de 3D de asfalto. Este proyecto se ha dividido en 4 capítulos, en un primer lugar estará la introducción, donde se presentarán los aspectos más importante que se va a componer el proyecto. En el segundo capítulo se presentarán todos los datos técnicos que se han tenido que estudiar para desarrollar la herramienta, entre los que cabe los tres temas más importantes que se han estudiado en este proyecto: materiales asfálticos, los principios de la tomografías 3D y el procesamiento de imágenes. Esta será la base para el tercer capítulo, que expondrá la metodología utilizada en la elaboración del código, con la explicación del entorno de trabajo utilizado en Matlab y todas las funciones de procesamiento de imágenes utilizadas. Además, se muestra todo el código desarrollado, así como una descripción teórica de los métodos utilizados para el pre-procesamiento y segmentación de las imagenes en 3D. En el capítulo 4, se mostrarán los resultados obtenidos en el estudio de una de las muestras de asfalto, y, finalmente, el último capítulo se basa en las conclusiones sobre el desarrollo de este proyecto. En este proyecto se ha llevado han realizado todos los puntos que se establecieron como punto de partida en el anteproyecto para crear la herramienta, a pesar de que se ha dejado para futuros proyectos nuevas posibilidades de este codigo, como por ejemplo, la detección automática de las diferentes regiones de una muestra de asfalto debido a su composición. Como se muestra en este proyecto, las técnicas de procesamiento de imágenes se utilizan cada vez más en multitud áreas, como pueden ser industriales o médicas. En consecuencia, este tipo de proyecto tiene multitud de posibilidades, y pudiendo ser la base para muchas nuevas aplicaciones que se puedan desarrollar en un futuro. Por último, se concluye que este proyecto ha contribuido a fortalecer las habilidades de programación, ampliando el conocimiento de Matlab y de la teoría de procesamiento de imágenes. Del mismo modo, este trabajo proporciona una base para el desarrollo de un proyecto más amplio cuyo alcance será una herramienta que puedas ser utilizada por el equipo de investigación de la Universidad Tecnológica de Lodz y en futuros proyectos. ABSTRACT In this project has been developed one code in MATLAB to process X-ray tomographic 3D images of asphalt specimens. These images 3D has been taken by a research team of the Lodz University of Technology (LUT). The aim of this project is to create a tool that can be used to study differents asphalt specimen and can be used to study them after stress tests undergoing the samples. With the final goal to find solutions to the degradation suffered roads in Poland due to differents causes, like weather conditions. The degradation of the roads is an issue that has been investigated many years ago, due to strong degradation suffered caused by various factors such as climate, poor maintenance or excessive traffic in some cases. It is in Poland where these three factors make the composition of many roads degrade rapidly, especially due to the weather conditions suffered along the year, with temperatures ranging from 30 o C in summer to -20 ° C in winter. This causes the roads suffers a lot and asphalt rises shortly after putting, increasing maintenance costs and road accident. This project part of the base that research is taking place at the LUT, in order to better analyze the asphalt specimens, they are tested for stress and find solutions to improve the asphalt on Polish roads. This would decrease remarkable maintenance cost. Although this project will not go into the technical aspect as asphalt and composition, but it has been required a deep study about all of its features, to create a code able to obtain the best results. For these reasons, there have been developed in Matlab, algorithms that allow the study of 3D specimens of asphalt. Matlab is a powerful mathematical tool, which allows arrays operate fastly, allowing to develop specific code for the treatment and processing of 3D images. Thus, these algorithms perform processes such as the multidimensional matrix sgementation, pre and post processing with the same filtering algorithms or microstructural analysis of asphalt specimen which being studied. All these algorithms and function that has been developed to be integrated into a visual tool which it be developed with the GUIDE of Matlab. This tool has been created in the project of Jorge Vega which name is: Microstructural segmentation of 3D images of asphalt specimen using Matlab engine. In this tool it has been used all the functions programmed in this project, and it has the aim to develop an easy and intuitive graphical environment for the study of 3D samples of asphalt. This project has been divided into 4 chapters plus the introduction, the second chapter introduces the state-of-the-art of the three of the most important topics that have been studied in this project: asphalt materials, principle of X-ray tomography and image processing. This will be the base for the third chapter, which will outline the methodology used in developing the code, explaining the working environment of Matlab and all the functions of processing images used. In addition, it will be shown all the developed code created, as well as a theoretical description of the methods used for preprocessing and 3D image segmentation. In Chapter 4 is shown the results obtained from the study of one of the specimens of asphalt, and finally the last chapter draws the conclusions regarding the development of this project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En casos de accidentes severos en túneles se requiere una adecuada estrategia para evitar pérdidas humanas. En túneles con ventilación longitudinal el recurso fundamental es la actuación sobre los ventiladores de chorro para dirigir o concentrar la nube de humo. Las situaciones más comprometidas se presentan en túneles con doble sentido de circulación. En este artículo se presentan varios modelos numéricos de distinta complejidad y coste que permiten el análisis e interpretación de accidentes con fuego. Finamente se muestran ejemplos de aplicación a casos reales, en particular los realizados para los túneles de El Negrón II y Los Yébenes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las reformas de agua en países en desarrollo suelen llevarse a cabo junto con cambios institucionales más profundos o, incluso, acompañadas de cambios constitucionales o de régimen político. Por lo tanto, los marcos institucionales adaptados a países gobernados sujetos al estado de derecho pueden no ser apropiados para contextos gobernados fundamentalmente, al menos en sus inicios, por instituciones informales o poco maduras. Esta tesis toma las reformas de agua como punto de partida y pretende contribuir a la literatura mediante una serie de análisis empíricos tanto del ámbito general como del plano individual o sujeto personal de la política del agua. En el ámbito general, el foco se pone en los factores que explican el fallo de la acción colectiva en dos contextos diferentes: 1) en la implementación de la nueva Ley de Aguas de Nicaragua y 2) en el mantenimiento y revitalización de las instituciones de riego en Surinam. En el plano del individuo, la investigación se centra en las decisiones de los usuarios de los recursos y analiza el papel crítico de las variables sociales para la gestión de los recursos comunes. Para ello, el método de investigación utilizado es mixto, combinando el análisis de entrevistas, encuestas y experimentos. En el ámbito general, los resultados muestran que las principales barreras para la implementación de la nueva Ley de Aguas de Nicaragua podrían tener su reflejo en el lenguaje de la Ley y, por tanto, en la forma en la que se definen y configuran las instituciones incluidas en dicha Ley. Así, la investigación demuestra que la implementación de políticas no puede ser estudiada o entendida sin tener en cuenta tanto el diseño de la propia política como el marco socio-ecológico en el que se enmarca. El contexto específico de Nicaragua remarca la importancia de considerar tanto las instituciones formales como informales en los procesos de transición política. A pesar de que las reformas de agua requieren plazos largos para su implementación, el hecho de que exista una diferencia entre las reglas tal cual se definen formalmente y las reglas que operan en la realidad merece una mayor consideración en el diseño de políticas basadas fundamentalmente en instituciones formales. En el ámbito de la conducta individual, el análisis de la acción colectiva ofrece una serie de observaciones empíricas interesantes. En el caso de Nicaragua, los resultados indican que la intensidad de las relaciones sociales, el tipo de agentes dispuestos a proporcionar apoyo social y el nivel de confianza en la comunidad son factores que explican de manera significativa la participación en la comunidad. Sin embargo, el hecho de que la gestión colectiva de riego se produzca, en la mayoría de casos, en torno a lazos familiares sugiere que las variables de capital social críticas se definen en gran medida en la esfera familiar, siendo difícil que se extiendan fuera de estos nexos. El análisis experimental de los resultados de un juego de uso de recurso común y contribución al bien público muestra que las preferencias pro-sociales de los individuos y la heterogeneidad del grupo en términos de composición por sexo son factores que explican significativamente los resultados y las decisiones de apropiación a lo largo del juego. En términos del diseño de las políticas, es fundamental tener en cuenta las dinámicas de participación y uso de los recursos comunes de manera que los niveles de cooperación puedan mantenerse en el largo plazo, lo cual, como se observa en el caso de Surinam, no es siempre posible. Finalmente, el caso de Surinam es un ejemplo ilustrativo de los procesos de acción colectiva en economías en transición. El análisis del fallo de la acción colectiva en Surinam muestra que los procesos políticos vinculados al período colonial y de independencia explican en gran medida la falta de claridad en las reglas operacionales y colectivas que gobiernan la gestión de los sistemas de riego y drenaje. Los resultados empíricos sugieren que a pesar de que la acción colectiva para la provisión de los servicios de riego y drenaje estaba bien establecida bajo el régimen colonial, la auto-organización no prosperó en un contexto dependiente del apoyo externo y regido fundamentalmente por reglas diseñadas al nivel competencial del gobierno central. El sistema socio-ecológico que se desarrolló durante la transición post-colonial favoreció, así, la emergencia de comportamientos oportunistas, y posteriormente la inoperancia de los Water Boards (WBs) creados en la época colonial. En este sentido, cualquier intento por revitalizar los WBs y fomentar el desarrollo de la auto-organización de los usuarios necesitará abordar los problemas relacionados con los patrones demográficos, incluyendo la distribución de la tierra, el diseño de instituciones y la falta de confianza en el gobierno, además de las inversiones típicas en infraestructura y sistemas de información hidrológicos. El liderazgo del gobierno, aportando empuje de arriba-abajo, es, además, otro elemento imprescindible en Surinam. ABSTRACT Water reforms in developing countries take place along deeper institutional and even constitutional. Therefore, institutional frameworks that might result in positive outcomes in countries governed by the rule of law might not fit in contexts governed mainly by informal or immature institutions. This thesis takes water reforms as the starting point and aims to contribute to the literature by presenting several conceptual and empirical analyses at both general and individual levels. At the general national level, the focus is on the factors explaining failure of collective action in two different settings: 1) in the implementation of the new Nicaraguan Water Law and 2) in sustaining and revitalizing irrigation institutions in Suriname. At the individual level, the research focuses on the actions of resource users and analyzes the critical role of social variables for common pool resources management. For this purpose, the research presented in this thesis makes use of a mixed-method approach, combining interviews, surveys and experimental methods. Overall, the results show that major barriers for the implementation of the new Nicaraguan Water Law have its reflection on the language of the Law and, therefore, on the way institutions are defined and configured. In this sense, our study shows that implementation cannot fruitfully be studied and understood without taking into account both the policy design and the social-ecological context in which it is framed. The specific setting of Nicaragua highlights the relevance of considering both formal and informal institutions when promoting policy transitions. Despite the unquestionable fact that water reforms implementation needs long periods of time, there is still a gap between the rules on paper and the rules on the ground that deserves further attention when proposing policy changes on the basis of formal institutions. At the level of the individual agent, the analysis of collective action provides a number of interesting empirical insights. In the case of Nicaragua, I found that the intensity of social networks, the type of agents willing to provide social support and the level of trust in the community are all significant factors in explaining collective action at community level. However, the fact that most collective irrigation relies on family ties suggests that critical social capital variables might be defined within the family sphere and making it difficult to go beyond it. Experimental research combining a common pool resource and a public good game in Nicaragua shows that individuals’ pro-social traits and group heterogeneity in terms of sex composition are significant variables in explaining efficiency outcomes and effort decisions along the game. Thus, with regard to policy design, it is fundamental to consider carefully the dynamics of agents' participation and use of common pool resources, for sustaining cooperation in the long term, which, as seen in the case and Surinam, is not always possible. The case of Suriname provides a rich setting for the analysis of collective action in transition economies. The analysis of decay of collective irrigation in Suriname shows that the lack of clear operational and collective choice rules appear to be rooted in deeper political processes that date back to the colonial period. The empirical findings suggest that despite collective action for the provision of irrigation and drainage services was well established during the colonial period, self-organization did not flourish in a context governed by colonial state-crafted rules and mostly dependent on external support. The social-ecological system developed during the post-colonial transition process favored the emergence of opportunistic behavior. In this respect, any attempt to revitalize WBs and support self-organization will need to tackle the problems derived from demographic patterns, including land allocation, institutions design and government distrust, in addition to the typical investments in both physical infrastructure and hydrological information systems. The leadership role of the government, acting as a top-down trigger, is another essential element in Suriname.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gran parte del patrimonio construido cuenta con edificios cuya estructura está compuesta por elementos de madera. El volumen económico que supone el mantenimiento y renovación de dicho patrimonio es considerable, por ello, es de especial interés el estudio de las diferentes técnicas de refuerzo aplicables a este tipo de estructuras. Las estructuras de madera han sido tradicionalmente reforzadas con piezas del mismo material, aumentando la sección de los elementos dañados, o con acero. La aparición de los materiales compuestos de polímeros reforzados con fibras, y su progresiva aplicación en obras de construcción, hizo que a principios de la década de los noventa se comenzara a aplicar este material en refuerzos de estructuras de madera (Puente de Sins, 1992). La madera es un material natural con una excelente relación entre sus características mecánicas y su peso. Con el uso de materiales compuestos como refuerzo ésta característica se mantiene. En cuanto a su modelo constitutivo, se admite un comportamiento elástico lineal a tracción paralela a la fibra hasta la rotura, mientras que a compresión, se considera un comportamiento lineal elástico inicial, seguido de un tramo plástico. En vigas de madera aserrada sometidas a flexión predomina el modo de fallo por tracción localizándose la fractura frecuentemente en el canto inferior. Los FRP tienen un comportamiento elástico lineal a tracción hasta la rotura y cuentan con excelentes propiedades mecánicas en relación a su peso y volumen. Si se refuerza la viga por el canto inferior se aumentará su capacidad de absorber tracciones y por tanto, es previsible que se produzca un incremento en la capacidad de carga, así como un aumento de ductilidad. En este trabajo se analizan los beneficios que aportan distintos sistemas de refuerzos de materiales compuestos. El objetivo es contribuir al conocimiento de esta técnica para la recuperación o aumento de las propiedades resistentes de elementos de madera sometidos a flexión. Se ha llevado a cabo un estudio basado en datos obtenidos experimentalmente mediante el ensayo a flexión de vigas de madera de pino silvestre reforzadas con materiales compuestos. Las fibras que componen los tejidos utilizados para la ejecución de los refuerzos son de basalto y de carbono. En el caso de los compuestos de fibra de basalto se aplican en distintos gramajes, y los de carbono en tejido unidireccional y bidireccional. Se analiza el comportamiento de las vigas según las variables de refuerzo aplicadas y se comparan con los resultados de vigas ensayadas sin reforzar. Además se comprueba el ajuste del modelo de cálculo no lineal aplicado para predecir la carga de rotura de cada viga reforzada. Con este trabajo queda demostrado el buen funcionamiento del FRP de fibra de basalto aplicado en el refuerzo de vigas de madera y de los tejidos de carbono bidireccionales con respecto a los unidireccionales. ABSTRACT Many of the buildings of the built heritage include a structure composed by timber elements. The economic volume involved in the maintenance and renewal of this built heritage is considerable, therefore, the study of the different reinforcement techniques applicable to this type of structure is of special interest. The wooden structures have traditionally been reinforced either with steel or with pieces of the same material, increasing the section of the damaged parts. The emergence of polymer composites reinforced with fibers, and their progressive use in construction, started to be applied as reinforcement in timber structures at the beginning of the nineties decade in the 20th century (Sins Bridge, 1992). Wood is a natural material with an excellent ratio between its mechanic characteristics and its weight. This feature is maintained with the use of composites as reinforcement. In terms of its constitutive model, linear elastic behavior parallel to the fiber up to fracture is admitted when subjected to tensile stress, while under compression, an initial linear elastic behavior, followed by a section plasticizing, is considered. In sawn timber beams subjected to bending, the predominant failure is mainly due to tensile stress; and frequently the fracture is located at the beam lower face. The FRP have a linear elastic behavior until fracture occurs, and have excellent mechanical properties in relation to their weight and volume. If the beam is reinforced by its lower face, its capacity to absorb tensile stresses will increase, and therefore, an increase in its carrying capacity is likely to be produced, as well as an increase in ductility. This work analyzes the benefits different reinforcement systems of composite materials provide, with the aim of contributing to the knowledge of this technique for recovering or increasing the strength properties of timber elements subjected to bending loads. It is a study based on data obtained experimentally using bending tests of pine timber beams reinforced with composite materials. Fibers used for the execution of the reinforcement are basalt and carbon. Basalt fiber composites are applied in different grammages, whereas with carbon composites, unidirectional and bidirectional fabrics are used. The behavior of the beams was analyzed regarding the reinforcement variables applied, and the results are compared with those of the tested beams without reinforcement. Furthermore it has been proved adjunting the nonlinear calculation model applied to predict the failure load of each reinforced beam. This work proves the good behavior of fiber reinforce plastic (FRP) with basalt fiber when applied to timber beams, and that of bidirectional carbon fabrics as opposed to the unidirectional ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el nuevo Reglamento de Productos de Construcción [1] que obliga a los fabricantes de éstos productos a tener su correspondiente estudio medioambiental, los profesionales del sector debemos prescribir y diseñar teniendo en cuenta, no solo el impacto que se genera en la fabricación de los productos, sino en todas las fases del proceso constructivo, incluida la fase de ejecución, uso, mantenimiento y fin de vida. Los múltiples estudios de análisis de ciclo de vida que se están generando de los distintos productos de la construcción, pueden facilitar una serie de pautas para poder establecer nuevos criterios de mejora de la calidad de nuestras edificaciones. Para lograr este objetivo se analiza, de forma comparativa, la repercusión de las distintas fases del proceso productivo del edificio según el grado de industrialización del mismo. Los estudios comparativos sobre el cumplimiento de la sostenibilidad de los distintos productos o sistemas de la construcción revelan que aquellos que poseen un alto grado de industrialización, tienen un mayor grado de sostenibilidad, por ello existe una tendencia clara a la hora de introducir estos sistemas en los procesos edificatorios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto tiene por objeto definir las diferentes obras e instalaciones necesarias para poder realizar, de acuerdo con la normativa vigente, el tratamiento de la totalidad de las aguas residuales producidas en el casco urbano del municipio de Arganda del Rey, con una previsión de vida útil de 25 años, es decir, para el año de proyecto 2038. Las obras que se consideran incluidas en la construcción de la Estación Depuradora de Aguas Residuales (E.D.A.R.) de Arganda del Rey son: bombeo de las aguas residuales a tratar, desde el emisario a la planta de nueva onstrucción, toma de entrada de las aguas residuales a la estación de tratamiento;instalaciones de tratamiento de las aguas residuales (E.D.A.R.), restitución al río Jarama del efluente tratado,instalaciones de energía eléctrica, agua potable y telefonía necesarias para el funcionamiento correcto de la estación y acondicionamiento del camino de acceso existente a la planta. Así mismo se pretende la consecución en todo momento de unos requisitos mínimos de calidad, costes y funcionalidad que se pueden resumir en: buena relación coste/calidad,introducción de nuevas técnicas ya experimentadas con resultados óptimos, establecimiento de equilibrio entre los costes de primera inversión y los de mantenimiento, facilitar la explotación y mantenimiento de la instalación, reducción de costes de mantenimiento y aspecto estético de la instalación agradable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comentarios Legales: de las canalizaciones en las comunidades de propietarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comentarios Técnicos: de la clasificación de los sistemas de impermeabilización I.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comentarios Técnicos: de la clasificación de los sistemas de impermeabilización II.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comentarios Legales: de las licencias urbanísticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta ponencia se trata un aspecto del mecanismo proyectado para la extracción de humos generados en un posible incendio en el túnel de Somport. Tras una somera descripción del sistema de ventilación y extracción se comentan los métodos de modelado físico y numérico que han servido para dimensionar la solución y, en particular, se pone de manifiesto la utilidad que los simuladores numéricos (modelos monodimensionales, modelos zonales y modelos tridimensionales), dentro de todas las limitaciones que todavía presentan, pueden tener para la formación del personal encargado del control y para seleccionar estrategias de actuacion que puedan aplicarse de forma automática en caso de accidente. Se comenta brevemente la realización de ensayos in situ para completar los estudios anteriores. Una de las conclusiones, entre otras, es que la extracción de humos mediante trampillas es una solución excelente; sin embargo su éxito depende de la capacidad de desarrollar mecanismos capaces de funcionar con temperaturas muy altas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fauna saproxílica ha cobrado mucha relevancia en los últimos años. Por una parte, debido a los múltiples papeles que juega en la ecología de los bosques y por otra, por encontrarse muchas especies de ese grupo amenazadas como consecuencia de la intensificación de las actividades forestales. Se supone que los bosques de Europa meridional albergan una fauna saproxílica rica y variada. Sin embargo apenas se han realizado estudios que permitan conocer la composición de las biocenosis saproxílicas, así como el estatus y grado de amenaza a que está sometida cada especie. En esta tesis se han muestreado de forma sistemática las comunidades de coleópteros saproxílicos de cuatro montes del norte de la Comunidad de Madrid, muy diferentes a pesar de su cercanía: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos y Pinar de La Maleza. Para llevar a cabo la recogida de muestras se definió una estación de muestreo tipo, compuesta por cuatro trampas aéreas con cebo oloroso, dos trampas de ventana y una trampa de embudos. En los dos primeros montes mencionados se desplegaron seis estaciones de muestreo, por sólo tres en los otros dos. El primer objetivo de esta tesis fue conocer las especies de coleópteros que constituyen la fauna de los cuatro montes estudiados. Los muestreos sistemáticos reportaron la presencia de un total de 357 especies de coleópteros saproxílicos, siendo el Hayedo de Montejo el bosque con la diversidad más alta, 220 especies; le siguen la Dehesa de Madarcos con 116; el pinar de La Maleza con 115; y la Dehesa de Somosierra con 109, si bien la fauna de este ultimo bosque podría ser mucho más variada dado que la interferencia del ganado con algunos dispositivos de captura hizo que se perdiera parte del material allí recolectado. Se han encontrado nueve especies nuevas para la fauna de la Península Ibérica, y otras muchas desconocidas previamente en el centro peninsular. Un total de 50 especies se encuentran incluidas en la Lista Roja Europea de coleópteros saproxílicos. El segundo objetivo fue estimar la riqueza de fauna de coleópteros saproxílicos en cada bosque. Partiendo de los datos de los respectivo muestreos se calcularon diferentes estimadores, paramétricos y no paramétricos, y se elaboraron las curvas de rarefacción para cada bosque y para el conjunto. El bosque con más biodiversidad ha resultado ser el Hayedo de Montejo, que albergaría entre 254 y 332 especies. En el Pinar de la Maleza se encontrarían de 132 a 223; de 128 a 205 en la Dehesa de Somosierra; y entre 134 y 188 en la Dehesa de Madarcos. Para el conjunto del área se estimó la presencia de entre 411 y 512 especies. El tercer objetivo fue evaluar la influencia de algunos factores como la especie arbórea dominante y la cantidad de madera muerta en la riqueza y diversidad de coleópteros saproxílicos. El estudio se realizó en el Hayedo de Montejo, encontrando una alta correlación positiva entre cantidad y calidad de madera muerta, y diversidad y riqueza de especies de coleópteros saproxílicos. El cuarto objetivo fue evaluar la eficacia y complementariedad de los diferentes tipos de dispositivos de captura empleados en los muestreos. El más eficaz resultó ser la trampa de ventana, seguido por la trampa aérea con cebo oloroso, y finalmente la trampa de embudos. La mayor complementariedad se encontró entre trampas de ventana y aéreas con cebo oloroso. No obstante, si se quiere optimizar la exhaustividad del inventario no se debe prescindir de ninguno de los sistemas. En cualquier caso, puede afirmarse que la efectividad de los tres tipos de dispositivos de captura utilizados en los muestreos fue baja, pues para la gran mayoría de especies presentes se capturó un número de ejemplares realmente bajo. El bajo rendimiento de captura implica un bajo impacto sobre las poblaciones de las especies muestreadas, y esto supone una importante ventaja desde el punto de vista de la conservación. Finalmente, se dejan algunas recomendaciones de manejo a aplicar en cada uno de los montes con el fin de preservar o mejorar los hábitats utilizables por la fauna saproxílica que garanticen el mantenimiento y mejora de dichas comunidades. ABSTRACT The saproxylic fauna has become increasingly important in recent years. It has been due, on the one hand, to the multiple roles they play in the forest ecosystems and, on the other, because of the large proportion of endangered saproxylic species as a result of the intensification of forestry. It is generally assumed that southern Europe forests are home to a rich and diverse saproxylic fauna. However, there are hardly any studies leading to reveal the composition of saproxylic biocenosis, or the stage and extent of the threat each species is suffering. For the purpose of this thesis the communities of saproxylic beetles of four mountain forests in northern Comunidad de Madrid have been systematically sampled: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos and Pinar de La Maleza. They are very different from each other in spite of not being too far apart. In order to carry out sample collection, a standard sampling station was defined as follows: four smelly bait aerial traps, two window traps and one funnel trap. Six sampling stations were deployed in each of the first two forests mentioned above; put only three in each of the other two. The first aim of this thesis was to determine the composition of saproxylic beetles fauna inhabiting each of the four forests studied. Systematic sampling reported the presence of a total of 357 species of saproxylic beetles. Hayedo de Montejo, with 220 species, is the forest with the highest diversity, followed by Dehesa de Madarcos, 116; Pinar de La Maleza, 115, and Dehesa de Somosierra, 109. The fauna of the latter forest, however, could be much more varied, since cattle interference with some capture devices caused the loss of part of the material collected there. Nine new species in the fauna of the Iberian Peninsula were found, and many others previously unknown in the center of the Peninsula. A total of 41 of those species are included in the European Red List of saproxylic beetles. The second aim was to estimate the richness of saproxylic (beetle) fauna in each forest. From the data of the respective sampling, different parametric and nonparametric estimators were calculated, and rarefaction curves for each forest, as well as for the four of them together, were drawn. The most biodiverse forest turned out to be Hayedo de Montejo, which houses between 254 and 332 species. In Pinar de La Maleza, between 132 and 223 species were found; between 128 and 205 in Dehesa de Somosierra, and between 134 and 188 in Dehesa de Madarcos. The estimated diversity of species for the whole area ranges from 411 to 512. The third aim was to evaluate the influence of such factors as the dominant tree species and the amount of dead wood in the richness and diversity of saproxylic beetles. The study was conducted at Hayedo de Montejo, finding a high positive correlation between quantity and quality of coarse woody debris and diversity and richness of saproxylic beetle species. The fourth aim was to evaluate the effectiveness and complementarity of the different sampling methods used in this research work. The most effective proved to be the window trap, followed by the smelly bait aerial trap and the funnel trap, in that order. The greater complementarity was found between window and aerial traps. However, in order to optimize the completeness of the inventory, neither of the systems should be discarded. Nevertheless, the effectiveness of the three types of capture devices used in this piece of research was on the whole rather low, since for the vast majority of species, a significant low number of specimens were captured. Poor trapping performance implies a low impact on the populations of the sampled species, and this is an important advantage in terms of conservation. Finally, this thesis gives some recommendations with regard to the management of each of those four forests, leading to preserve and improve the habitats of the saproxylic wildlife and so ensure the maintenance and growth of their communities.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El alimento sólido es un ingrediente básico en la producción de leche, de ahí que dediquemos un capítulo al diseño y al manejo de la zona de alimentación. El comedero debe permitir una distribución adecuada de la ración, proporcionar espacio suficiente a las vacas para que éstas puedan consumir la cantidad que necesitan, estar limpio y libre de residuos de comidas anteriores y ser fácil de limpiar. La ingestión de alimentos se ve afectada por una serie de factores ambientales y de manejo. Sobre los primeros (clima y entorno) no se puede actuar o resulta caro y difícil, pero sobre las segundas (diseño y dimensionamiento adecuado, espacio disponible, etc.) sí podemos influir. De esta forma, un comedero correctamente diseñado da lugar a un acercamiento del animal más frecuente, más duradero y a una mayor ingestión. Asimismo, evitará numerosas lesiones debidas a una presión excesiva de las vacas sobre él. También nos referiremos a su mantenimiento y limpieza, para lo que es esencial una buena elección de materiales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las murallas de Segovia, existen, atendiendo a su morfología y diseño en planta, tres tipos de torres, poligonales, rectangulares y semicirculares. En la documentación histórica parece insinuarse una unidad y contemporaneidad en la construcción de todo su trazado, lo cual contraviene esta diferenciación estilística que se observa en el documento construido. La existencia de distintas tipologías de torres, de diferentes tipos de fábricas, aparejos y de métricas constructivas nos inducen a pensar en la construcción de una muralla efectuada en distintas fases constructivas y no en una obra tan unitaria como parece respaldar la historiografía tradicional.