859 resultados para Metodología de evaluación


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los accidentes con implicación de autocares en los que se producen vuelcos ponen de manifiesto la especial agresividad de los mismos, como lo confirman las estadísticas. Como medida para mejorar la seguridad de los Vehículos de Grandes Dimensiones para el Transporte de Pasajeros (V.G.D.T.P.) frente a vuelco fue aprobado por las Naciones Unidas el Reglamento Nº 66 de Ginebra. Este reglamento establece los requisitos mínimos que las estructuras de los vehículos de grandes dimensiones deben cumplir con respecto a vuelco. El reglamento 66 ha supuesto un paso adelante muy importante en relación con la seguridad de los autocares, puesto que especifica por primera vez requerimientos estructurales a este tipo de vehículos, y en general ha supuesto una mejora del vehículo . Por otro lado, a consecuencia de la obligatoriedad de instalación de cinturones de seguridad, existe una unión entre pasajeros y vehículo, pero como no se trata de una unión rígida, hay que contemplar el porcentaje de la masa de los ocupantes que influye en la absorción de energía de la estructura. Además la retención de los ocupantes con cinturones de seguridad influye en la energía a absorber por la estructura del vehículo en dos aspectos, por un lado aumenta la masa del vehículo y en el otro se incrementa la altura el centro de gravedad. Esta situación a conducido a elaborar por parte de las Naciones Unidas la revisión 01 del Reglamento 66, en el que se considera que el 50 % de la masa total de los pasajeros posee una unión rígida con la estructura del vehículo, y por lo tanto debe ser tenida en cuenta si el vehículo posee sistemas de retención. En la situación actual, con limitaciones de peso del vehículo y peso por eje, los elementos de confort, seguridad y espacio para maleteros contribuyen a aumentar el peso del vehículo. Esto unido a la dificultad de introducción de cambios radicales en la concepción actual de fabricación de este tipo de vehículos por suponer unas pérdidas importantes para los fabricantes existentes, tanto en su conocimiento del producto como en su metodología de proceso, conlleva la necesidad cada vez más agobiante de analizar y evaluar otras alternativas estructurales que sin suponer grandes revoluciones a los productos actualmente en fabricación los complementen permitiendo adaptarse a los nuevos requerimientos en seguridad. Recientes desarrollos en la relación costo-beneficio de los procesos para la producción de materiales celulares metálicos de baja densidad, tales como las espumas metálicas, los posiciona como una alternativa de especial interés para la aplicación como elementos de absorción de energía para reforzar estructuras. El relleno con espumas metálicas puede ser más eficiente en términos de optimización de peso comparado con el aumento de espesor de los perfiles estructurales, dado que la absorción de energía se produce en una fracción relativamente pequeña de los perfiles, en las denominadas rótulas plásticas. La aplicación de espumas de relleno metálicas en estructuras de vehículos se está empezando a emplear en determinadas zonas de los vehículos de turismo, siendo totalmente novedosa cualquier intento de aplicación en estructuras de autobuses y autocares. Conforme a lo expuesto, y con el objeto de resolver estos problemas, se ha elaborado el presente trabajo de tesis doctoral, cuyos objetivos son: -Desarrollar un modelo matemático, que permita simular el ensayo de vuelco, considerando la influencia de los ocupantes retenidos con cinturones de seguridad para evaluar su influencia en la absorción de energía de la estructura. -Validar el modelo matemático de vuelco de la estructura mediante ensayos de secciones representativas de la estructura del vehículo y mediante el ensayo de un vehículo completo. -Realizar un estudio de las propiedades de las espumas metálicas que permitan incorporarlas como elemento de absorción de energía en el relleno de componentes de la superestructura de autobuses y autocares. -Desarrollar un modelo matemático para evaluar el aporte del relleno de espuma metálica en la absorción de energía ante solicitaciones por flexión estática y dinámica en componentes de la superestructura de autobuses o autocares. -Realizar un programa de ensayos a flexión estáticos y dinámicos para validar el modelo matemático del aporte del relleno de espuma metálica sobre componentes de la superestructura de autobuses y autocares. . -Incorporar al modelo matemático de vuelco de la estructura, los resultados obtenidos sobre componentes con relleno de espuma metálica, para evaluar el aporte en la absorción de energía. -Validar el modelo de vuelco de la estructura del autobús o autocar con relleno de espuma metálica, mediante ensayos de secciones de carrocería. ABSTRACT Accidents involving buses in which rollovers occur reveal the special aggressiveness thereof, as the statistics prove. As a measure to improve the safety of large vehicles for the transport of passengers to rollover, Regulation 66 of Geneva was approved by the United Nations. This regulation establishes the minimum requirements that structures of large vehicles must comply with respect to rollovers. The regulation 66 has been a major step forward in relation to the safety of coaches, since it specifies structural requirements to such vehicles and has been an improvement for the vehicle. In turn, as a result of compulsory installation of safety belts, there is contact between passengers and vehicle, but as it is not a rigid connection we must contemplate the percentage of the mass of the occupants that impacts on the energy absorption of the structure. Thus, the passengers’ restraining modifies the energy to absorb by the vehicle in two different aspects: On the one hand, it increases the vehicle weight and on the other the height of the center of gravity. This circumstance has taken the United Nations to elaborate Revision 01 of Regulation 66, in which it is considered that the 50 percent of passengers’ mass has a rigid joint together with the vehicle structure and, therefore, the passengers’ mass mentioned above should be highly considered if the vehicle has seat belts. In the present situation, in which limitations in vehicle weight and weight in axles are stricter, elements of comfort, safety and space for baggage are contributing to increase the weight of the vehicle. This coupled with the difficulty of introducing radical changes in the current conception of manufacturing such vehicles pose significant losses for existing manufacturers, both in product knowledge and process methodology, entails the overwhelming need to analyze and evaluate other structural alternatives without assuming relevant modifications on the products manufactured currently allowing them to adapt to the new safety requirements. Recent developments in cost-benefit processes for the production of metallic foams of low density, such as metal foams, place them as an alternative of special interest to be used as energy absorbers to strengthen structures. The filling with metal foams can be more efficient in terms of weight optimization compared with increasing thickness of the structural beams, since the energy absorption occurs in a relatively small fraction of the beams, called plastic hinges. The application of metal filling foams in vehicle structures is beginning to be used in certain areas of passenger cars, being an innovative opportunity in structures for application in buses and coaches. According to the mentioned before, and in order to come forward with a solution, this doctoral thesis has been prepared and its objectives are: - Develop a mathematical model to simulate the rollover test, considering the influence of the occupants held with seat belts to assess their influence on energy absorption structure. - Validate the mathematical model of the structure rollover by testing representative sections of the vehicle structure and by testing a complete vehicle. - Conduct a study of the properties of metal foams as possible incorporation of energy absorbing element in the filler component of the superstructure of buses and coaches. - Elaborate a mathematical model to assess the contribution of the metal foam filling in absorbing energy for static and dynamic bending loads on the components of buses or coaches superstructure. - Conduct a static and dynamic bending test program to validate the mathematical model of contribution of metal foam filling on components of the superstructure of buses and coaches bending. - To incorporate into the mathematical model of structure rollover, the results obtained on components filled with metal foam, to evaluate the contribution to the energy absorption. - Validate the rollover model structure of the bus or coach filled with metal foam through tests of bay sections. The objectives in this thesis have been achieved successfully. The contribution calculation model with metal foam filling in the vehicle structure has revealed that the filling with metal foam is more efficient than increasing thickness of the beams, as demonstrated in the experimental validation of bay sections.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tesis Doctoral que se presenta trata de profundizar en el conocimiento del patrimonio arbóreo, en la cuestión de la evaluación y la singularidad a nivel de ejemplares y agrupaciones. La metodología incorpora nuevas herramientas, modelos y criterios utilizados en la valoración del paisaje y de los recursos naturales. Siendo el árbol un generador de espacio y habitats, solo o en masa, es vínculo entre la naturaleza y el ser humano, las comunidades y sus costumbres. Desde estos parámetros se indagan los procesos que permiten estimar el significado, la importancia y el valor del árbol para llevarlo a una consideración de Singular y/o Monumental. El estudio se basa en los sistemas de catalogación, tras el reconocimiento, localization y selección de ejemplares. Así mismo, se explora la relación sistémica entre árbol y entorno para poner de relieve la importancia del árbol en la configuración de determinados paisajes culturales y ecológicos -como son los robledales de antiguos trasmochos en Euskadi-. Sobre un primer inventario se realiza un estudio pormenorizado de cada árbol registrado y, en un procedimiento paramétrico, se definen criterios -ecológicos y paisajísticos, etnográficos y culturales- de selección de elementos y de evaluación. La obtención de distintos índices de singularidad para los árboles, utilizando modelos tanto cualitativos como cuantitativos, sirve como vía hacia una categorization de los árboles muestreados. A partir de la figura de "Árbol Singular", recogida en la Ley 16/ 1994, de Conservación de la Naturaleza del País Vasco se realiza una revisión del marco legislativo y el régimen de protección, haciendo un análisis a nivel local, autonómico y estatal. Dicho examen pone de manifiesto la diversidad de contextos y significados bajo los que se presentan los árboles. Se muestra también una (in)definición: cierta ambigüedad en torno a la definición que induce a diferentes interpretaciones y nomenclaturas en un intento de delimitar la categoría para regularlo jurídicamente. Estas figuras concebidas desde las políticas de protección ambiental, no siempre resultan del todo efectivas. El Catálogo de Árboles Singulares del País Vasco, creado por Decreto como instrumento para poner en valor estos recursos naturales, no ha sido actualizado desde hace casi veinte años. Sin embargo, se han llevado a cabo iniciativas de ampliación como el trabajo impulsado por el Departamento de Medio Ambiente y Biodiversidad de la Diputación Foral de Álava para el inventario de los árboles singulares del Territorio Histórico de Álava y la propuesta de catálogo a partir del cual se desarrolla esta Tesis Doctoral. Desde estas reflexiones y el desarrollo de modelos para la evaluación y catalogación de los ejemplares registrados, la investigación trata de descifrar cómo observamos a los árboles con los que nos vinculamos, cómo son identificados, a través de qué otros parámetros intangibles les damos valor, y por qué necesitamos clasificarlos. El trabajo concluye con propuestas y acciones alternativas para la conservación y mejora de los árboles que se proponen como singulares, entre ellas, la divulgación y la sensibilización para garantizar el compromiso y la ampliación en el futuro de un catálogo abierto para los árboles de interés. ABSTRACT The PhD thesis here presented tries to deepen the knowledge of tree heritage, the issue of evaluation and singularity where it comes to either specimen or groups. The methodology includes new tools, models and criteria to be used in the assessment of landscape and natural resources. With the tree being a creator of space and habitats, alone or in groups, it is a link between nature and humans, societies and their habits. Using these parameters processes are being sought after: processes that allow us to assess the meaning, the importance and the value of trees in order to lead us to considering a tree as being a 'Singular tree' and/or 'Heritage tree'. The research is based on cataloging systems, after recognizing, localizing and selecting of specimen. This way, the systemic relation between the tree and its surrounding is being explored to get a view on the importance of trees in certain cultural and ecological landscapes -such as the oak fields consisting of ancient pollards in the Basque Country-. After a first inventory a detailed study is performed of each registered tree and, using a parametric method, criteria for selection of elements and evaluation are defined -ecological and those concerning the landscape, as well as ethnographical and cultural-. The creation of different indexes of singularity for trees, using qualitative as well as quantitative models, serves as a way to categorize the selected trees. A revision is done on legislation and the protection regimen, analyzing on a local, autonomic state and national level, parting from the concept of the Singular Tree, as included in the Law 16/1994, of Nature Conservation of Basque Coutry. This review proves the diversity of contexts and meanings in which the trees are being presented. Also an (un)definition appears; certain ambiguity of the definition which induces different interpretations and nomenclatures in an attempt to limit categorization in order to legally regulate. These concepts created out of environment protection politics do not always turn out to be completely effective. The Catalogue of Singular Trees in the Basque Country, created by decree as an instrument to value these natural resources, has not been updated since almost twenty years. However, there have been initiatives of amplification such as the work promoted by the Environment and Biodiversity Service of Provincial Council of Alava to create the inventory of singular trees of the Historical Territory of Álava and the catalogue proposal which forms the starting point of this PhD thesis. Parting from these considerations and the development of models for evaluation and cataloging of the registered specimen, the investigation attempts to unravel the way we observe the trees with which we link, how they are identified, by which intangible parameters we assess them and why we need to classify them. This study ends with proposals and alternative actions for the conservation and improvement of the trees that are being proposed as being singular. Among them are the publication and creating of awareness to guarantee the commitment and the development of an open catalogue for significant trees.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las obras de infraestructura que construye el ser humano para optimizar los recursos naturales y satisfacer sus necesidades, producen impactos tanto positivos como negativos en el ambiente. México cuenta con una gran cantidad de recursos naturales y lugares que han sido favorecidos por la naturaleza, donde la sobrecarga de las actividades antropogénicas genera problemas de impacto ambiental, especialmente en las zonas costeras y en su entorno. El objetivo del presente trabajo fue aportar información acerca de las principales presiones que recibe el sistema y cómo esto afecta a las propuestas de soluciones integrales y a la capacidad para recuperar el estado de equilibrio en las zonas costeras. En la presente investigación, se desarrolló una metodología para la caracterización de zonas costeras, basada en un modelo sistémico, con el propósito de tener una herramienta de planificación para proyectos ambientalmente sustentables, integrando una base de datos con las mejores prácticas de planificación, lo que facilitará el diagnóstico y la evaluación de la capacidad adaptativa de recuperación del sistema. Asimismo, se utilizó un modelo sistémico como una metodología para organizar la gran complejidad que implica la interrelación e interconexión que existe entre los múltiples componentes, y con ello obtener el conocimiento para su caracterización. Con base en el modelo de Zachman, se realizó un análisis para la detección de las fortalezas y debilidades del sistema, lo que permitió visualizar el impacto de los riesgos a que está expuesta una zona costera. Las principales aportaciones de este trabajo fueron el desarrollo de la FICHA DE CARACTERIZACIÓN DE LA ZONA COSTERA y la inclusión, en dicha ficha, de la estimación del nivel de la resiliencia física, ambiental, social, económica y política. La metodología propuesta, es una aportación que permite integrar los componentes, las relaciones e interconexiones que existen en el sistema costero. La metodología tiene la ventaja de ser flexible y se pueden agregar o desechar componentes de acuerdo a las particularidades de cada caso de estudio; adicionalmente, se propone utilizar esta herramienta como ayuda en el monitoreo periódico del sistema. Lo anterior como parte de un observatorio integrado al Sistema Nacional de Gestión Costera que se propone como parte de futuras líneas de investigación. Como caso de estudio, se realizó la caracterización del complejo sistema Banco Chinchorro, lo que resultó en la inclusión (en la FICHA DE CARACTERIZACIÓN DE LA ZONA COSTERA), de las lecciones aprendidas con la detección de buenas y malas prácticas, esto redundó en la mejora de la metodología propuesta para la gestión de la zona costera. All infrastructures that build the human being to optimize natural resources and meet their needs, generate both, positive and negative impacts on the environment, since the acquisition and transformation of resources in coastal areas affect their balance. Mexico has a large number of natural resources and places that have been favored by nature, whereas the overhead of anthropogenic activities leads to problems of environmental impact, especially in coastal areas and in its surroundings. The aim of this study was to provide information about the main pressures that a system receives and how this affects the proposed solutions and the ability to restore the state of balance in coastal areas. In this research, a methodology for the characterization of coastal zones, based on a systemic model, in order to develop a planning tool for environmentally sustainable projects, was developed, integrating a database with the best practices for planning, conservation and balance of coastal areas. This will facilitate the diagnosis and evaluation of the adaptive resilience of the system. A systemic model was used as a methodology to organize the vast complexity of the relationship and interconnection between the multiple components, and so thus gain knowledge for its characterization. Based on the Zachman model, an analysis to detect the strengths and weaknesses of the system was performed, allowing visualizing the impact of the risks that the coastal zone is exposed to. The main contributions of this study was the development of the COASTAL CHARACTERIZATION RECORD, and the inclusion, on that record, of the estimation of the physical, environmental, social, economic and political resilience. The proposed methodology is a contribution that allows integrating the components, relationships and interconnections existing in the coastal system. The methodology has the advantage of being flexible and components can be added or discarded according to the particularities of each case study; Additionally, this is not only a diagnostic tool, it is proposed to use it as an aid in monitoring periodically the system, this as part of an integrated monitoring into the National System of Coastal Management that is proposed as part of future research. As a case study, the characterization of the coastal zone “Banco Chinchorro” was done, resulting in the inclusion, in the COASTAL CHARACTERIZATION RECORD, of the documented lessons learned from the good and bad practices detection, improvement of the methodology proposed for the management of the coastal zone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El planteamiento fundamental del trabajo ha consistido en explorar las posibilidades existentes para establecer una metodología basada en un modelo cuantitativo para la condensación de indicadores relacionados con los sistemas de calidad en el ámbito universitario público. El modelo incluye tanto la evaluación de activos tangibles como intangibles. Se ha seguido una metodología adaptada al planteamiento: - Realizando un estudio tipo DELPHI (DELPHI 1) entre las Unidades Técnicas de Calidad de las universidades de la Comunidad de Madrid, para conocer la situación de la implantación de metodologías de planificación estratégica en la universidad. - Definiendo tres niveles de gestión (bases, activos e indicadores) para la construcción del modelo cuantitativo. - Realizando una propuesta inicial de bases, activos e indicadores, incluyendo activos intangibles. - Realizando un segundo estudio tipo DELPHI (DELPHI 2) entre expertos con responsabilidad directiva en universidades, para debatir y revisar la propuesta. - Por último diseñando una metodología y la correspondiente herramienta para la condensación de los indicadores. En resumen, se ha generado una propuesta consolidada y actualizada de las bases estratégicas, los activos tangibles e intangibles y los indicadores en ambos casos, diseñándose una metodología (herramienta) que permite implementar la definición de los tres niveles de control, establecer una ponderación de cada uno de los elementos en los tres niveles y establecer una cuantificación de la importancia o contribución de cada elemento para la propia institución, y sirve para facilitar la toma de decisiones por priorización de actuaciones, establecer objetivos para los indicadores, valorar el grado de cumplimiento y modificar la estrategia de una institución universitaria. ABSTRACT The fundamental approach of the work has been to explore the possibilities to establish a methodology based on a quantitative model for condensing indicators related to quality assurance systems in Higher Education Institutions (HEI), particularly public universities. The model includes both assessment of tangible and intangible assets. A methodology adapted to the approach has been followed: - Performing a type DELPHI study (DELPHI 1) between the Technical Quality Units of the universities of the Community of Madrid, to know the level of implementation of strategic planning methodologies in HEI. - Defining three levels of management (bases, assets and indicators) to build the quantitative model. - Performing an initial proposal bases, assets and indicators, including intangible assets. - Making a second study type DELPHI (DELPHI 2) between experts with managerial responsibility in universities, to discuss and review the proposal. - Finally designing a methodology and related tool for condensing indicators. In short, a proposal consolidated and updated for strategic bases, the tangible and intangible assets and indicators of both types of assets has been performed. A methodology (tool) that allows to implement the definition of the three levels of control, establish a weighting each of the elements on three levels and establish a quantification of the importance and contribution of each element to the institution itself, has been designed. The methodology serves: - To facilitate decision-making by prioritizing activities. - To set targets for indicators. - To assess the degree of compliance and - To modify the strategy of the HEI.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología dedeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología dedeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El tratamiento superficial por ondas de choque generadas por láser, LSP, es una técnica cuyo principal objetivo es el de la modificación del estado tensional de las primeras micras en profundidad de materiales metálicos. En sus comienzos está técnica fue empleada para inducir tensiones residuales de compresión en superficie, pero mientras se avanzaba en su desarrollo se empezaron a observar otros efectos. Profundizando en ellos se llega a la conclusión de que existe una fuerte relación entre todos, pero dependiendo de la aplicación a la que se vea sometido un componente tratado con LSP será necesario una serie de características que bien pueden ser ajustadas “a priori”. Para ello se ha de tener una buena caracterización del proceso láser y de las modificaciones que produce en las propiedades de un material determinado. Y es en este punto donde surge el problema: las modificaciones introducidas por el tratamiento láser son dependientes de la interacción de la energía del pulso láser con el material, es decir, para cada material es necesaria una caracterización previa de cómo sus propiedades son modificadas con las diferentes configuraciones del tratamiento LSP, encontrando para cada material un óptimo en los parámetros láser. En esta Tesis se pretende desarrollar una metodología para evaluar las modificaciones en las propiedades mecánicas y superficiales inducidas en materiales metálicos debido al tratamiento superficial por ondas de choque. De esta manera y avanzando de una manera lógica con la línea de investigación del grupo, se ha querido aplicar todo el conocimiento adquirido de la técnica para desarrollar esa metodología sobre un caso práctico: el empleo de dos configuraciones de tratamiento LSP sobre el acero inoxidable AISI 316L. Estas dos configuraciones elegidas se hacen en base a estudios previos, por parte del grupo de investigación, donde se han optimizados los parámetros para obtener el óptimo en lo que a perfil de tensiones residuales en profundidad se refiere. El material elegido como caso característico para llevar acabo la evaluación integrada del tratamiento LSP, de acuerdo con el propósito de esta Tesis, ha sido el acero inoxidable AISI 316L, debido a que este tipo de acero tiene una excelente resistencia a la corrosión en un amplio rango de atmosferas corrosivas, y es conocido como el grado estándar para un importante número de aplicaciones tecnológicas. La resistencia a la oxidación es buena incluso a altas temperaturas de servicio y la soldabilidad es excelente. Los aceros austeníticos son empleados en aplicaciones que soportan condiciones de alta temperatura y medios altamente corrosivos, como en reactores nucleares. Estos aceros resisten la corrosión en el agua de un reactor y procesos químicos en plantas que operan a temperaturas superiores a los 900 ˚C. En concreto el acero 316L se utiliza en la industria de equipamiento alimentario, en ambientes donde haya presencia de cloruros, en aplicaciones farmacéuticas, en la industria naval, en arquitectura, sector energético, centrales nucleares y en implantes médicos. Es decir, es un material ampliamente implantado en la industria, tanto en industrias tradicionales, como en industrias emergentes como la biomédica. El objetivo marcado para el desarrollo de la presente Tesis es caracterizar de forma precisa cómo el tratamiento superficial por ondas de choque generadas por láser es capaz de mejorar las propiedades de los materiales y cómo de estables son estas con la temperatura. Este punto es importante puesto que a la hora de introducir el proceso LSP en la industria no solo se tiene que tener en cuenta que las propiedades del material sean mejoradas, sino que también es necesario comprobar si esas mejoras se mantienen después de ser sometido el material a un tratamiento térmico ya que las condiciones de servicio de los materiales y componentes empleados no tienen por qué trabajar a temperatura ambiente. Para lograr el objetivo mencionado, el trabajo experimental realizado en la aleación seleccionada bajo todas las condiciones a estudio (material según fue recibido de fábrica, tratado con las dos configuraciones LSP y después de haber sido sometido al tratamiento térmico) ha consistido en lo siguiente: i) Estudios microestructural, morfológico y de composición química. ii) Medida de las tensiones residuales introducidas. iii) Caracterización superficial del material. iv) Estudio de las propiedades mecánicas: ensayos de tracción, ensayos de dureza, cálculo de la densidad de dislocaciones y ensayos de fatiga. v) Caracterización tribológica: ensayos de fricción y cálculo de la tasa de desgaste y volumen eliminado. vi) Caracterización electro-química para el material base y tratado con las dos configuraciones LSP. Se realizan medidas a circuito abierto, curvas de polarización (OCP), ensayos potenciostáticos y espectroscopia de impedancia electroquímica (EIS). El trabajo se ha llevado a cabo en los laboratorios del Centro Láser de la Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo de investigación trata de aportar luz al estudio del tiempo de reacción (TR) en velocistas con y sin discapacidad auditiva desde las Ciencias del Deporte. El planteamiento del presente estudio surgió al cuestionarnos la existencia de las diferencias en cuanto al TR visual y auditivo aplicado a velocistas con y sin discapacidad auditiva, pensando en el desarrollo futuro de competiciones inclusivas entre ambos colectivos. Por ello, este estudio trata de resolver las dificultades que los velocistas con discapacidad se encuentran habitualmente en las competiciones. A priori, los atletas con discapacidad auditiva compiten en inferioridad de condiciones como consecuencia de una salida que no parece la más adecuada para ellos (desde los tacos, han de mirar hacia la pistola del juez o el movimiento de un rival). El documento se divide en tres partes. En la primera parte se realiza la pertinente revisión del marco teórico y justificación del estudio. La segunda parte se centra en los objetivos de la investigación, el material y el método, donde se muestran los resultados, discusión y conclusiones del estudio realizado, así como las limitaciones del presente trabajo y sus futuras líneas de investigación. La tercera parte corresponde a la bibliografía y la cuarta parte a los anexos. En la primera parte, presentamos el marco teórico compuesto por cinco capítulos organizan la fundamentación que hemos realizado como revisión sobre los aspectos más destacados del TR, determinado por las características de la tarea y otros factores que influyen en el TR como objeto de nuestro estudio. Después exponemos los principales aspectos estructurales y funcionales del sistema nervioso (SN) relacionados con el TR visual y auditivo. Tras ello se expone la realidad del deporte para personas con discapacidad auditiva, indagando en sus peculiaridades y criterios de elegibilidad que tiene ese colectivo dentro del ámbito deportivo. A continuación abordamos el estudio de la salida de velocidad en el atletismo, como aspecto clave que va a guiar nuestra investigación, especialmente los parámetros determinantes en la colocación de los tacos de salida para atletas con y sin discapacidad auditiva, la posición de salida y la propia colocación de los estímulos en dicha situación. Es la segunda parte se desarrolla el trabajo de investigación que tiene como objetivos estudiar los valores de TR visual simple manual, TR en salida de tacos y los tiempos de desplazamiento a los 10m y 20m de velocistas con y sin discapacidad auditiva, así como analizar las posibles diferencias en TR según posición y tipo de estímulo luminoso, respecto a ambos grupos de atletas. Como tercer objetivo de estudio se evalúa cualitativamente, por parte de los propios atletas, el dispositivo luminoso utilizado. La toma de datos de este estudio se llevó a cabo entre los meses de febrero y mayo del 2014, en el módulo de atletismo del Centro de Alto Rendimiento Joaquín Blume (Madrid), con dos grupos de estudio, uno de 9 velocistas con discapacidad auditiva (VDA), conformando éstos el 60% de toda la población en España, según el número de las licencias de la FEDS en la modalidad de atletismo (velocistas, pruebas de 100 y 200 m.l.), en el momento del estudio, y otro de 13 velocistas sin discapacidad (VsDA) que se presentaron de manera voluntaria con unos mismos criterios de inclusión para ambos grupos. Para la medición y el registro de los datos se utilizaron materiales como hoja de registro, Medidor de Tiempo de Reacción (MTR), tacos de salida, ReacTime®, dispositivo luminoso conectado a los tacos de salida, células fotoeléctricas, ordenador y software del ReacTime, y cámara de video. La metodología utilizada en este estudio fue de tipo correlacional, analizando los resultados del TR simple manual según vía sensitiva (visual y auditiva) entre los dos grupos de VDA y VsDA. También se estudiaron los TR desde la salida de tacos en función de la colocación del dispositivo luminoso (en el suelo y a 5 metros, vía visual) y pistola de salida atlética (vía auditiva) así como el tiempo de desplazamiento a los 10m (t10m) y 20m (t20m) de ambos grupos de velocistas. Finalmente, se desarrolló y llevó a cabo un cuestionario de evaluación por parte de los atletas VDA con el objetivo de conocer el grado de satisfacción después de haber realizado la serie de experimentos con el dispositivo luminoso y adaptado para sistemas de salida en la velocidad atlética. Con el objetivo de comprobar la viabilidad de la metodología descrita y probar en el contexto de análisis real el protocolo experimental, se realizó un estudio piloto con el fin de conocer las posibles diferencias del TR visual desde los tacos de salida en velocistas con discapacidad auditiva, usando para dicha salida un estímulo visual mediante un dispositivo luminoso coordinado con la señal sonora de salida (Soto-Rey, Pérez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). En cuanto a los procedimientos estadísticos utilizados, con el fin de analizar la distribución de los datos y su normalidad, se aplicó la prueba de Kolmogorov-Smirnof, dicha prueba arrojó resultados de normalidad para todas las variables analizadas de las situaciones experimentales EA, EVsuelo y EV5m. Es por ello que en el presente trabajo de investigación se utilizó estadística paramétrica. Como medidas descriptivas, se calcularon el máximo, mínimo, media y la desviación estándar. En relación a las situaciones experimentales, para estudiar las posibles diferencias en las variables estudiadas dentro de cada grupo de velocistas (intragrupo) en la situación experimental 1 (MTR), se empleó una prueba T de Student para muestras independientes. En las situaciones experimentales 2, 3 y 4, para conocer las diferencias entre ambos grupos de velocistas en cada situación, se utilizó igualmente la prueba T para muestras independientes, mientras que un ANOVA simple (con post hoc Bonferroni) se utilizó para analizar las diferencias para cada grupo (VDA y VsDA) por situación experimental. Así mismo, se utilizó un ANOVA de medidas repetidas, donde el tipo de estímulo (situación experimental) fue la variable intra-grupo y el grupo de velocistas participantes (VDA y VsDA) la entre-grupo, realizándose esta prueba para evaluar en cada situación el TR, t1m0 y t20m y las interacciones entre las variables. Para el tratamiento estadístico fue utilizado el paquete estadístico SPSS 18.0 (Chicago, IL, EEUU). Los niveles de significación fueron establecidos para un ≤0.05, indicando el valor de p en cada caso. Uno de los aspectos más relevantes de este trabajo es la medición en diferentes situaciones, con instrumentación distinta y con situaciones experimentales distintas, del TR en velocistas con y sin discapacidad auditiva. Ello supuso el desarrollo de un diseño de investigación que respondió a las necesidades planteadas por los objetivos del estudio, así como el desarrollo de instrumentación específica (Rojo-Lacal, Soto-Rey, Pérez-Tejero y Rojo-González, 2014; Soto-Rey et al., 2015) y distintas situaciones experimentales que reprodujeran las condiciones de práctica y competición real de VsDA y VDA en las pruebas atléticas de velocidad, y más concretamente, en las salidas. El análisis estadístico mostró diferencias significativas entre los estímulos visuales y sonoros medidos con el MTR, siendo menor el TR ante el estímulo visual que ante el sonoro, tanto para los atletas con discapacidad auditiva como para los que no la presentaron (TR visual, 0.195 s ± 0.018 vs 0.197 s ± 0.022, p≤0.05; TR sonoro 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Teniendo en cuenta los resultados según población objeto de estudio y situación experimental, se registraron diferencias significativas entre ambas poblaciones, VDA y VsDA, siendo más rápidos los VDA que VsDA en la situación experimental con el estímulo visual en el suelo (EVsuelo, 0.191 ±0.025 vs 0.210 ±0.025, p≤0.05, respectivamente) y los VsDA en la situación experimental con el estímulo auditivo (EA, 0.396 ±0.045 vs 0.174 ±0.021, p≤0.05), aunque sin diferencias entre ambos grupos en la situación experimental con el estímulo visual a 5m de los tacos de salida. Es de destacar que en el TR no hubo diferencias significativas entre EA para VsDA y EVsuelo para VDA. El ANOVA simple registró diferencias significativas en todas las situaciones experimentales dentro de cada grupo y para todas las variables, por lo que estadísticamente, las situaciones experimentales fueron diferentes entre sí. En relación al de ANOVA medidas repetidas, la prueba de esfericidad se mostró adecuada, existiendo diferencias significativas en las varianzas de los pares de medias: el valor de F indicó que existieron diferencias entre las diferentes situaciones experimentales en cuanto a TR, incluso cuando éstas se relacionaban con el factor discapacidad (factor interacción, p≤0,05). Por ello, queda patente que las situaciones son distintas entre sí, también teniendo en cuenta la discapacidad. El η2 (eta al cuadrado, tamaño del efecto, para la interacción) indica que el 91.7% de la variación se deben a las condiciones del estudio, y no al error (indicador de la generalización de los resultados del estudio). Por otro lado, la evaluación del dispositivo luminoso fue positiva en relación a la iluminación, comodidad de uso, ubicación, color, tamaño, adecuación del dispositivo y del equipamiento necesario para adaptar al sistema de salida. La totalidad de los atletas afirman rotundamente que el dispositivo luminoso favorecería la adaptación al sistema de salida atlética para permitir una competición inclusiva. Asimismo concluyen que el dispositivo luminoso favorecería el rendimiento o mejora de marca en la competición. La discusión de este estudio presenta justificación de las diferencias demostradas que el tipo de estímulo y su colocación son clave en el TR de esta prueba, por lo que podríamos argumentar la necesidad de contar con dispositivos luminosos para VDA a la hora de competir con VsDA en una misma prueba, inclusiva. El presente trabajo de investigación ha demostrado, aplicando el método científico, que el uso de estos dispositivos, en las condiciones técnicas y experimentales indicadas, permite el uso por parte del VDA, usando su mejor TR visual posible, que se muestra similar (ns) al TR auditivo de VsDA, lo que indica que, para competiciones inclusivas, la salida usando el semáforo (para VDA) y la salida habitual (estímulo sonoro) para VsDA, puede ser una solución equitativa en base a la evidencia demostrada en este estudio. De esta manera, y como referencia, indicar que la media de los TR de los velocistas en la final de los 100 m.l. en los Juegos Olímpicos de Londres 2012 fue de 0.162 ±0.015. De esta manera, creemos que estos parámetros sirven de referencia a técnicos deportivos, atletas y futuros trabajos de investigación. Las aplicaciones de este trabajo permitirán modificaciones y reflexiones en forma de apoyo al entrenamiento y la competición para el entrenador, o juez de salida en la competición que, creemos, es necesaria para proporcionar a este colectivo una atención adecuada en las salidas, especialmente en situaciones inclusivas de práctica. ABSTRACT This research aims to study of reaction time (RT) in sprinters with and without hearing impairment from the Sports Science perspective. The approach of this study came asking whether there were differences in the visual and auditory RT applied to sprinters with and without hearing impairment, thinking about the future development of inclusive competition between the two groups. Therefore, this study attempts to resolve the difficulties commonly founded by sprinters with hearing impairments during competitions. A priori, sprinters with hearing impairment would compete in a disadvantage situation as a result of the use of a staring signal not suitable for them (from the blocks, they have to look to the judge´s pistol or the movement of an opponent). The document is divided into three parts. In the first part of the review of relevant theoretical framework and justification of the study is presented. The second part focuses on the research objectives, material and method, where results, discussion and conclusions of the study, as well as the limitations of this study and future research are presented. The third part contains references and the fourth, annexes. In the first part, we present the theoretical framework consisting of five chapters, organizing the state of the art of RT, determined by the characteristics of the task and other factors that influence the RT as object of our study. Then we present the main structural and functional aspects of the nervous system associated with visual and auditory RT. After that, sport for people with hearing disabilities is presented, investigating its peculiarities and eligibility criteria is that group within the deaf sport. Finally, we discuss the theoretical foundation of the study of start speed in athletics as a key aspect that will guide our research, especially the determining parameters in placing the starting blocks for athletes with and without hearing impairment, the starting position and the actual placement of stimuli in such a situation. The second part of the research aims to study the values of simple manual visual RT, RT start from blocks and travel times up to 10m and 20m of sprinters with and without hearing impairment, and to analyze possible differences in RT as position and type of light stimulus with respect to both groups of athletes. The third objective of the study is to assess the pertinence of the lighting device developed and used in the study, in a qualitatively way by athletes themselves. Data collection for this study was carried out between February and May 2014, in the Athletics module at the High Performance Centre Joaquin Blume (Madrid) with the two study groups: 9 sprinters with hearing impairments(VDA, reaching 60% of the population in Spain, according to the number of licenses for athletics at FEDS: sprint, 100 and 200 m.l., at the time of the study), and another 13 sprinters without disability (VsDA) who voluntarily presented themselves, with same inclusion criteria for both groups. For measuring and data collection materials such as recording sheet, gauge reaction time (MTR), starting blocks, ReacTime®, luminous device connected to the starting blocks, photocells, computer and software ReacTime, and video camera were used. The methodology used in this study was correlational, analyzing the results of simple manual RT according sensory pathway (visual and auditory) between the two groups (VsDA and VDA). Also auditory and visual RT was studied depending the placement of the start light signal (on the ground and 5 meters, visual pathway) and athletic start gun signal (auditory pathway, conventional situation) and travel time up to 10m (t10m) and 20m (t20m) for both groups of sprinters. Finally, we developed and carried out an evaluation questionnaire for VDA athletes in order to determine the degree of satisfaction after completing the series of experiments with lighting device and adapted to start systems in athletic speed. In order to test the feasibility of the methodology described and tested in the context of real analysis of the experimental protocol, a pilot study in order to know the possible differences visual RT from the starting blocks in sprinters with hearing impairments was performed, to said output using a visual stimulus coordinated by a lighting device with sound output signal (Soto-Rey Perez-Tejero, Rojo-González y Álvarez-Ortiz, 2015). For the statistical procedures, in order to analyze the distribution of the data and their normality, Kolmogorov-Smirnov test was applied, this test yielded normal results for all variables analyzed during EA, EVsuelo and EV5m experimental situations. Parametric statistics were used in this research. As descriptive measures, the maximum, minimum, mean and standard deviation were calculated. In relation to experimental situations, to study possible differences in the variables studied in each group sprinters (intragroup) in the experimental situation 1 (MTR), a Student t test was used for independent samples. Under the experimental situations 2, 3 and 4, to know the differences between the two groups of sprinters in every situation, the T test for independent samples was used, while a simple ANOVA (with post hoc Bonferroni) was used to analyze differences for each group (VDA and VsDA) by experimental situation. Likewise, a repeated measures ANOVA, where the type of stimulus (experimental situation) was variable intra-group and participants sprinters group (VDA and VsDA) the variable between-group, was performed to assess each situation for RT, t10m and t20m, and also interactions between variables. For the statistical treatment SPSS 18.0 (Chicago, IL, USA) was used. Significance levels were set for  ≤0.05, indicating the value of p in each case. One of the most important aspects of this work is the measurement of RT in sprinters with and without hearing impairment in different situations, with different instrumentation and different experimental situations. This involved the development of a research design that responded to the needs raised by the study aims and the development of specific instrumentation (Rojo-Lacal, Soto-Rey Perez-Tejero and Rojo-Gonzalez, 2014; Soto-Rey et al., 2015) and different experimental situations to reproduce the conditions of practical and real competition VsDA and VDA in athletic sprints, and more specifically, at the start. Statistical analysis showed significant differences between the visual and sound stimuli measured by the MTR, with lower RT to the visual stimulus that for sound, both for athletes with hearing disabilities and for those without (visual RT, 0.195 s ± 0.018 s vs 0.197 ± 0.022, p≤0.05; sound RT 0.230 s ± 0.016 vs 0.237 s ± 0.045, p≤0.05). Considering the results according to study population and experimental situation, significant differences between the two populations, VDA and VsDA were found, being faster the VDA than VsDA in the experimental situation with the visual stimulus on the floor (EVsuelo, recorded 0.191 s ± 0.025 vs 0.210 s ± 0.025, p≤0.05, respectively) and VsDA in the experimental situation with the auditory stimulus (EA, 0.396 s ± 0.045 vs 0.174 s ± 0.021, p≤0.05), but no difference between groups in the experimental situation with the 5m visual stimulus to the starting blocks. It is noteworthy that no significant differences in EA and EVsuelo between VsDA to VDA, respectively, for RT. Simple ANOVA showed significant differences in all experimental situations within each group and for all variables, so statistically, the experimental situations were different. Regarding the repeated measures ANOVA, the sphericity test showed adequate, and there were significant differences in the variances of the pairs of means: the value of F indicated that there were differences between the different experimental situations regarding RT, even when they were related to the disability factor (factor interaction, p≤0.05). Therefore, it is clear that the situations were different from each other, also taking into account impairment. The η2 (eta squared, effect size, for interaction) indicates that 91.7% of the variation is due to the conditions of the study, not by error (as indicator of the generalization potential of the study results). On the other hand, evaluation of the light signal was positively related to lighting, ease of use, location, color, size, alignment device and equipment necessary to adapt the start system. All the athletes claim strongly in favor of the lighting device adaptation system to enable athletic competition inclusive. Also they concluded that light device would enhance performance or would decrease their RT during the competition. The discussion of this study justify the type of stimulus and the start light positioning as key to the RT performance, so that we could argue the need for lighting devices for VDA when competing against VsDA the same competition, inclusive. This research has demonstrated, applying the scientific method, that the use of these devices, techniques and given experimental conditions, allows the use of the VDA, using his best visual RT, shown similar (ns) auditory RT of VsDA, indicating that for inclusive competitions, the start signal using the light (for VDA) and the usual start (sound stimulus) to VsDA can be an equitable solution based on the evidence shown in this study. Thus, and as a reference, indicate that the average of the RT sprinters in the 100 m. final at the 2012 Summer Olympic Games was 0.162 s ± 0.015. Thus, we believe that these parameters become a reference to sports coaches, athletes and future research. Applications of this work will allow modifications and reflections in the form of support for training and competition for the coach, or judge, as we believe is necessary to provide adequate attention to VDA in speed starts, especially in inclusive practice situations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente investigación aborda el análisis de las cualidades del entorno urbano que inciden en la experiencia perceptiva de su recorrido. Los intereses que la motivan tienen que ver con la recuperación de la ciudad para el viandante y se sitúa dentro de un marco de intereses más amplio como es el de la ciudad sostenible. En primer lugar, se contextualiza el tema de la experiencia del recorrido a través de disciplinas diferentes como son el cine, la literatura, la arquitectura, el urbanismo, la arquitectura del paisaje, la psicología y la estética ambiental. De este modo, se refuerza el argumento en torno al papel que desempeñan la forma y otros estímulos sensoriales en la experiencia del espacio, ya sea éste urbano, arquitectónico o natural. La experiencia que las personas viven al desplazarse por un entorno viene definida por infinitos factores que van desde la configuración física del entorno recorrido, hasta el aprendizaje cultural de la persona que camina; desde los estímulos sensoriales que se reciben, hasta las condiciones físicas que posibilitan la funcionalidad del recorrido; desde las sutilezas de índole secuencial que se desvelan a medida que avanzamos, hasta las condiciones higrotérmicas en el momento en que se lleva a cabo el desplazamiento. Sin embargo, factores como las motivaciones y atenciones personales del que anda, así como sus recuerdos de experiencias anteriores, deseos, imaginación y estado de ánimo, también definen nuestra experiencia al caminar que, indudablemente, se encuentra ligada a nuestra personalidad y, por lo tanto, no puede ser exacta a la de otra persona. Conscientes de que todos estos factores se funden en un fenómeno global, y que no se dan en la vida por separado, nos hemos esforzado por independizar las cualidades sensoriales y formales, únicamente a efectos de investigación. La importancia del tema a investigar reside en las conexiones que existen entre las cualidades del medio construido y la experiencia cotidiana de su recorrido, en la medida en que dicha vinculación establece relaciones con la calidad de vida, la salud de los ciudadanos y sus sentimientos de identidad. En este sentido, el problema clave encontrado es que si la definición de la experiencia del recorrido urbano es demasiado amplia, se vuelve nebulosa e inoperativa, pero si se precisa demasiado, se pueden excluir variables importantes. Hemos concentrado nuestros esfuerzos en buscar un medio que permita hacer operativo el estudio de aspectos que, por su propia naturaleza, son difíciles de controlar y aplicar en la práctica. En este sentido, el campo de estudio que aúna interés en el tema, producción científica y vocación práctica, es el de la caminabilidad de las ciudades. Por esta razón, hemos situado nuestro trabajo dentro del marco de criterios que este campo establece para valorar un entorno caminable. Sin embargo, hemos detectado que los trabajos sobre caminabilidad tienden a desarrollarse dentro de la disciplina del planeamiento de transporte y, con frecuencia, siguiendo las mismas pautas que la investigación sobre el transporte motorizado. Además, la tendencia a proporcionar datos numéricos producto de la medición controlada de variables, para respaldar iniciativas dentro de los ámbitos de toma de decisiones, lleva consigo un progresivo alejamiento de los aspectos más sutiles y próximos de la experiencia de las personas y la especificidad de los lugares. Por estas razones, hemos estimado necesario profundizar en la experiencia peatonal explorando otras líneas de trabajo como son la habitabilidad de las ciudades, políticas llevadas a cabo para mejorar la calidad del espacio público o las certificaciones de sostenibilidad en el ámbito del urbanismo. También se han estudiado las aproximaciones gráficas a la representación y simulación de recorridos urbanos por su importancia en la comunicación y promoción de caminar. Para detectar las problemáticas implicadas en la definición de una herramienta que permita valorar, de manera operativa, la calidad de la experiencia del recorrido urbano, la metodología de valoración propuesta se ha basado en la combinación de distintos métodos y en la conjugación de tres aproximaciones: valoración por parte del investigador en calidad de experto, valoración realizada por el investigador en el papel de usuario y valoración por el ciudadano. El desarrollo de esta investigación se ha visto condicionado por la intención de aplicar lo estudiado en un caso práctico. El marco de criterios que los trabajos sobre caminabilidad de las ciudades establecen para que se dé un entorno caminable, se puede resumir en que concurran los siguientes factores: mezcla de usos, densidad de población y edificación relativamente altas, destinos públicos accesibles a pie, un alto grado de seguridad con respecto al tráfico y actos delictivos, alta funcionalidad (dimensiones, pendientes, etc.) y atractivo. Una vez definido el modelo de ciudad en que es pertinente realizar una investigación sobre las cualidades del entorno urbano responsables de que éste se perciba como atractivo, se escogió la ciudad de Taipei, entre otras razones, por cumplir con los requisitos restantes. Con respecto al caso práctico, el objetivo es detectar fortalezas y debilidades del área central de la ciudad de Taipei en cuanto a la experiencia perceptiva que proporciona a los viandantes. ABSTRACT This research addresses the analysis of the qualities of the urban environment that affect the perceptual experience of walking. The interests lying behind it are related to the recovery of the city for pedestrians, and is framed within the sustainable city framework of interests. Firstly, the issue of the experience of walking is contextualized through different disciplines such as film, literature, architecture, urban planning, landscape architecture, environmental psychology and aesthetics. This way, the argument about the role that form and other sensory stimuli play in the experience of space, whether it is urban, architectural or natural, is strengthened. The walking experience of people is defined by factors ranging from the physical configuration of the environment to the cultural background of the person who walks, from the sensory stimuli that are perceived to the physical conditions that enable the functionality of the walk, from the subtleties of sequential nature that are revealed as we move around to hygrothermal conditions at the specific time of walking. Nevertheless, factors such as personal motivations and attentions of the walker, as well as memories of past experiences, desires, imagination and mood, also define our walking experience that is undoubtedly linked to our personality and, therefore, it cannot be exactly the same as other people's experience. Being aware that all these factors come together in a total phenomenon and that, in real life, they do not exist separately, we focused on separating sensory and formal qualities only for research purposes. The importance of the research topic lies in the connections between the qualities of the built environment and the quotidian experience of walking through it, to the extent that such link establishes relationships with the quality of life, health and feelings of identity of citizens. In this sense, the key problem encountered is that, if the definition of urban walking experience is too broad, it becomes nebulous and non‐operational, but if it is too precise, important variables can be excluded. We concentrated our efforts on finding a way to operationalize the study of questions that, by their very nature, are difficult to control and apply in practice. In this regard, the field of study that combines interest in the topic, scientific production and practical purpose, is the walkability of cities. For this reason, we placed our work within the framework of the set of criteria that this field establishes for assessing an environment as walkable. However, we found that works on walkability tend to be developed within the discipline of transportation planning and often following the same guidelines that research on motorized transport. Furthermore, the tendency to provide numerical data as a result of the controlled measurement of variables in order to support initiatives in decision making areas, involves a progressive distancing from the proximity and the most subtle aspects of the experience of people, and from the specificity of places. For these reasons, we considered it was necessary to deepen into the study of pedestrians experience, by exploring other lines of work such as the livability of cities, implemented policies to improve the quality of the public space or sustainability certifications in urbanism. Graphic representation and simulation of urban walks are also studied due to their important role in communication and promotion of walking. In order to find the issues involved in defining a tool to assess, in an operational way, the quality of urban walking experience, the proposed assessment methodology is based on the combination of different methods and the synthesis of three approaches: assessment by the researcher as expert, assessment by the researcher playing the role of user and assessment by the citizens. The development of this research has been conditioned by our intention of applying it in a case study. The framework of criteria that works on walkability of cities set to define a walkable environment, can be summarized in the following factors: mix of uses, population and building density rather high, public destinations accessible on foot, high levels of safety in terms of traffic and crime, high functionality (dimensions, slopes, etc.) and attractiveness. After defining the model of city in which it is relevant to conduct an investigation on the qualities that are responsible of the attractiveness of the environment; Taipei City was selected because it meets the remaining requirements, among other reasons. Regarding the case study, the goal is to identify strengths and weaknesses in the central area of Taipei City in terms of the perceptual experience of pedestrians.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo demostrar que los programas de preservación del patrimonio, durante su fase de implementación, deben someterse a un análisis multidisciplinar que haga un balance de su ejecución. Dicho análisis permitirá identificar resultados significativos, capaces de fundamentar la rectificación de las bases conceptuales de la política pública en cuestión. Este reajuste podrá darse, por lo tanto, durante su vigencia y, de forma más relevante, posteriormente, sus motivos y resultados permitirán elaborar nuevas estrategias que serán aplicadas en futuros programas de intervención. Por otro lado se indagó, además, si las ciudades participantes en un programa nacional de preservación del patrimonio, regidas por normas y metas comunes, podrían alcanzar resultados diferentes. Para atender a estos objetivos, la investigación se encuentra enfocada a la realidad brasileña, siendo seleccionado como objeto de estudio el Programa Monumenta. Este Programa formó parte de la política pública cultural del Ministerio de Cultura con una importante implicación del Banco Interamericano de Desarrollo. Implementado a partir de 1999, procuró promover un proceso de recuperación urbana sostenible y de preservación del patrimonio de 26 Sitios Históricos Urbanos o Conjuntos de Monumentos Urbanos protegidos por el Instituto del Patrimonio Histórico y Artístico Nacional (Iphan). El Programa contó con el apoyo de la Unesco y del Iphan, así como con la participación de las Administraciones Municipales y/o Estatales, sectores privados y la sociedad civil. Las hipótesis planteadas en esta Tesis Doctoral fueron: (a) el análisis de los resultados en la fase de implementación de un programa de preservación del patrimonio es imprescindible, porque permite extraer conclusiones preliminares y orientar sus reformas; (b) los objetivos a corto plazo establecidos por el Programa Monumenta fueron alcanzados de modo diferenciado en las distintas ciudades beneficiadas; (c) a pesar de las diferencias, el Programa Monumenta presentó resultados preliminares positivos y significativos en la preservación del patrimonio histórico urbano brasileño. Los procedimientos metodológicos se centraron en un análisis cuantitativo, cualitativo y comparativo de los resultados alcanzados por tres ciudades beneficiadas por el Programa Monumenta, seleccionadas según su tamaño poblacional: Pelotas, Porto Alegre (Estado de Rio Grande do Sul) y São Francisco do Sul (Estado de Santa Catarina). Estos procedimientos fueron aplicados en los siguientes indicadores: utilización de los equipamientos culturales, características de la población y de los domicilios, variación de las actividades económicas, financiación destinada al sector privado para la recuperación de inmuebles y el fomento de la seguridad urbana. La Tesis ha englobado discusiones y conceptos abordados en las disciplinas de la Sociología Urbana, Geografía Urbana, Historia, Economía y Estadística de modo que se atribuye al objeto de investigación una visión interdisciplinar que ayudará a la comprensión de la teoría y la práctica preservacionistas. El análisis de la varianza, la regresión lineal y el análisis factorial fueron las herramientas estadísticas aplicadas sobre los datos con el objetivo de constatar la significación de los resultados y la relación de correspondencia entre algunas variables. Esta Tesis contribuye a la elaboración de una metodología analítica que puede ser aplicada en el cálculo de la superficie ocupada por las actividades económicas, con base en el método estadístico del Diagrama de Caja y Bigotes, de John Wilder Tukey. Las conclusiones corroboran las hipótesis planteadas y pretenden contribuir al diseño de las nuevas políticas públicas de preservación de sitios históricos de carácter urbano, enfatizando, con ello, la necesidad de evaluaciones más profundas de los resultados durante su fase de implementación. ---------------------------------------------------------------------------------- RESUMO--------------------------------------------------------------------------- A presente Tese apresenta como objetivo principal demonstrar que os programas de preservação do patrimônio histórico, durante a sua fase de implementação, necessitam de uma análise multidisciplinar sobre a sua execução. Essa análise permite identificar resultados significativos, capazes de fundamentar a retificação das bases conceituais da política pública em questão. A correção poderá, portanto, ser realizada tanto durante a sua vigência como posteriormente, ao permitir a elaboração de novas estratégias a serem aplicadas nos futuros programas de intervenção. Por outro lado, indagou-se se cidades participantes de um mesmo programa nacional de preservação do patrimônio histórico, regidas por normas e metas comuns, poderiam alcançar resultados não similares. Para atender tais objetivos, a investigação enfoca a realidade brasileira, tendo sido selecionado o Programa Monumenta como objeto de estudo. Esse Programa fez parte de uma política pública cultural do Ministério da Cultura, que atuou em parceria com o Banco Interamericano de Desenvolvimento. Implantado em nível nacional, a partir de 1999, visava promover um processo de recuperação urbana sustentável, bem como a preservação do patrimônio de 26 Sítios Urbanos Históricos ou Conjuntos de Monumentos Urbanos, protegidos pelo Instituto do Patrimônio Histórico e Artístico Nacional (Iphan). O Programa contou com o apoio da Unesco e do Iphan, além da participação das Administrações Municipais e/ou Estaduais, setores privados e sociedade civil. As hipóteses estabelecidas nesta Tese Doutoral foram: (a) a análise dos resultados na fase de implementação de um programa de preservação do patrimônio é imprescindível, pois permite extrair conclusões preliminares e orientar as suas reformulações; (b) os objetivos em curto prazo, estabelecidos pelo Programa Monumenta, foram alcançados de modo diferente pelas cidades beneficiadas; (c) apesar das diferenças, o Programa Monumenta apresentou resultados preliminares positivos e significativos sobre a preservação do patrimônio histórico urbano brasileiro. Os procedimentos metodológicos se centraram em análises quantitativa, qualitativa e comparativa dos resultados alcançados em três cidades beneficiadas pelo Programa Monumenta, selecionadas de acordo com o tamanho populacional: Pelotas, Porto Alegre (Estado do Rio Grande do Sul) e São Francisco do Sul (Estado de Santa Catarina). Esses procedimentos foram aplicados nos seguintes indicadores: utilização dos equipamentos culturais, características da população e dos domicílios, atividades econômicas, financiamento destinado ao setor privado para a recuperação dos imóveis e, ainda, o fomento da segurança urbana. A Tese inclui discussões e conceitos abordados nas disciplinas de Sociologia Urbana, Geografia Urbana, História, Economia e Estatística, de modo a atribuir ao objeto de investigação uma visão interdisciplinar e uma compreensão entre a teoria e a prática preservacionista. A análise de variância, regressão linear e análise fatorial foram as técnicas estatísticas aplicadas sobre os dados, com o objetivo de constatar a significação dos resultados e a relação de correspondência entre algumas variáveis. Esta Tese contribui com a elaboração de uma metodologia aplicada no cálculo da superfície ocupada pelas atividades econômicas, utilizando como método estatístico o Diagrama de Caixa e Bigodes, de John Wilder Tukey. As conclusões corroboram com as hipóteses estabelecidas e pretendem contribuir para o desenho de novas políticas públicas de preservação de sítios históricos de caráter urbano, enfatizando a necessidade de avaliações mais profundas dos resultados durante a sua fase de implementação. ---------------------------------------------------------------------------------- ABSTRACT ---------------------------------------------------------------------------------- The main goal of this PhD. Thesis is to demonstrate that a multidisciplinary analysis is needed during the implementation phase of preservation of heritage programmes. Such analysis allows the identification of significant results, which in turn can serve as the foundation for the conceptual bases of the public policy at hand. Thus, any corrections can be made both during the programme and afterward, by introducing new strategies to be applied in future intervention programmes. On the other hand, this project also asks whether cities participating in the same national preservation of heritage programme with common rules and goals can achieve distinct results. In order to meet these objectives, the project chose Brazil as its focus and Monumenta Programme for its object of study. This Programme is part of the Ministry of Culture’s public cultural policy, and was developed with cooperation by the Inter-American Development Bank. Implemented at the national level in 1999, the Programme aimed at promoting a process of sustainable urban renewal and the preservation of 26 urban historic sites or urban monumental ensembles, protected by the National Historic and Artistic Heritage Institute (IPHAN). UNESCO and IPHAN supported the Programme, and participants included municipal and state offices, private businesses, and local residents. The hypotheses established in this Doctoral Thesis were: (a) the analysis of the results in the implementation phase of a cultural public policy is imperative, because it enables preliminary conclusions to be drawn and orientate reforms; (b) the short-term objectives set out in the Monumenta Programme were achieved differently in the benefitted cities; (c) despite the differences, the Monumenta Programme displayed significant positive preliminary results in the conservation of the urban historic heritage in Brazil. Methodology procedures centered around quantitative, qualitative, and comparative analyses of the results achieved in three benefiting cities, selected according to population size: Pelotas, Porto Alegre (Rio Grande do Sul State) and São Francisco do Sul (Santa Catarina State). These procedures were applied to the following indicators: the use of the cultural facilities, characteristics of the population and the residential housing, variation of the economic activities, financing destined for the recovery of real estate, and promoting urban safety. The Thesis includes discussions and concepts addressed in urban sociology, urban geography, history, economics, and statistics, in order to examine the object of study with an interdisciplinary eye and an understanding between preservation theory and practice. Variance analysis, linear regression, and factorial analysis were the statistical techniques applied to the data, with the goal of defining the significance of the results and the correspondence ratio between some of the variables. This Thesis attempted to elaborate an applied methodology for calculating the space occupied by economic activities, using John Wilder Tukey's statistical method of Box-and-Whisker Plot. The conclusions corroborated the hypotheses established and are meant to contribute to the design of new public policies of historical site preservation in urban settings, emphasizing the need for deeper evaluations of the results during the implementation phase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de ésta tesis es estudiar cómo desarrollar una aplicación informática que implemente algoritmos numéricos de evaluación de características hidrodinámicas de modelos geométricos representativos de carenas de buques. Se trata de especificar los requisitos necesarios que debe cumplir un programa para informático orientado a dar solución a un determinado problema hidródinámico, como es simular el comportamiento en balance de un buque sometido a oleaje, de popa o proa. una vez especificada la aplicación se realizará un diseño del programa; se estudiarán alternativas para implementar la aplicación; se explicará el proceso que ha de seguirse para obtener la aplicación en funcionamiento y se contrastarán los resultados obtenidos en la medida que sea posible. Se pretende sistematizar y sintetizar todo el proceso de desarrollo de software, orientado a la simulación del comportamiento hidrodinámico de un buque, en una metodología que se pondrá a disposición de la comunidad académica y científica en la forma que se considere más adecuada. Se trata, por tanto, de proponer una metodología de desarrollo de software para obetener una aplicación que facilite la evaluación de diferentes alternativas de estudio variando parámetros relativos al problema en estudio y que sea capaz de proporcionar resultados para su análisis. Así mismo se incide en cómo ha de conducirse en el proceso para que dicha aplicación pueda crecer, incorporando soluciones existentes no implementadas o nuevas soluciones que aparezcan en este ámbito de conocimiento. Como aplicación concreta de la aplicación se ha elegido implementar los algoritmos necesarios para evaluar la aparición del balance paramétrico en un buque. En el análisis de éste problema se considera de interés la representación geométrica que se hace de la carena del buque. Además de la carena aparecen otros elementos que tienen influencia determinante en éste estudio, como son las situación de mar y las situaciones de carga. Idealmente, el problema sería resuelto si se consiguiera determinar el ángulo de balance que se produce al enfrentar un buque a las diferentes condiciones de mar. Se pretende preparar un programa utilizando el paradigma de la orientación a objetos. Considero que es la más adecuada forma de modularizar el programa para poder utilizar diferentes modelos de una misma carena y así comparar los resultados de la evaluación del balance paramétrico entre sí. En una etapa posterior se podrían comparar los resultados con otros obtenidos empíricamente. Hablo de una nueva metodología porque pretendo indicar cómo se ha de construir una aplicación de software que sea usable y sobre la que se pueda seguir desarrollando. Esto justifica la selección del lenguaje de programación C++. Se seleccionará un núcleo geométrico de software que permita acoplar de forma versátil los distintos componentes de software que van a construir el programa. Este trabajo pretende aplicar el desarrollo de software a un aspecto concreto del área de conocimiento de la hidrodinámica. No se pretende aportar nuevos algoritmos para resolver problemas de hidrodinámica, sino diseñar un conjunto de objetos de software que implementen soluciones existentes a conocidas soluciones numéricas a dichos problemas. Se trata fundamentalmente de un trabajo de software, más que de hidrodinámica. Lo que aporta de novedad es una nueva forma de realizar un programa aplicado a los cálculos hidrodinámicos relativos a la determinación del balance paramétrico, que pueda crecer e incorporar cualquier novedad que pueda surgir más adelante. Esto será posible por la programación modular utilizada y los objetos que representan cada uno de los elementos que intervienen en la determinación del balance paramétrico. La elección de aplicar la metodología a la predicción del balance paramétrico se debe a que este concepto es uno de los elementos que intervienen en la evaluación de criterios de estabilidad de segunda generación que estan en estudio para su futura aplicación en el ámbito de la construcción naval. Es por tanto un estudio que despierta interés por su próxima utilidad. ABSTRACT The aim of this thesis is to study how to develop a computer application implementing numerical algorithms to assess hydrodynamic features of geometrical models of vessels. It is therefore to propose a methodology for software development applied to an hydrodynamic problem, in order to evaluate different study alternatives by varying different parameters related to the problem and to be capable of providing results for analysis. As a concrete application of the program it has been chosen to implement the algorithms necessary for evaluating the appearance of parametric rolling in a vessel. In the analysis of this problem it is considered of interest the geometrical representation of the hull of the ship and other elements which have decisive influence in this phenomena, such as the sea situation and the loading condition. Ideally, the application would determine the roll angle that occurs when a ship is on waves of different characteristics. It aims to prepare a program by using the paradigm of object oriented programming. I think it is the best methodology to modularize the program. My intention is to show how face the global process of developing an application from the initial specification until the final release of the program. The process will keep in mind the spefici objetives of usability and the possibility of growing in the scope of the software. This work intends to apply software development to a particular aspect the area of knowledge of hydrodynamics. It is not intended to provide new algorithms for solving problems of hydrodynamics, but designing a set of software objects that implement existing solutions to these problems. This is essentially a job software rather than hydrodynamic. The novelty of this thesis stands in this work focuses in describing how to apply the whole proccess of software engineering to hydrodinamics problems. The choice of the prediction of parametric balance as the main objetive to be applied to is because this concept is one of the elements involved in the evaluation of the intact stability criteria of second generation. Therefore, I consider this study as relevant usefull for the future application in the field of shipbuilding.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo, trata del ahorro de energía en la edificación y en el urbanismo. Las premisas en este caso, son un contexto normativo europeo y nacional muy exigentes y encaminados de manera decidida hacia edificios cada vez más eficientes y económicos. Se centra el estudio en las decisiones iniciales que se adoptan sobre las condiciones de ocupación de la parcela urbana, las tipologías edificatorias más adecuadas, su morfología y escala y las consecuencias que tienen para el comportamiento energético final, tanto en términos objetivos como normativos. Se trata de cuantificar que suponen estas decisiones en términos de ahorro energético. Todo el análisis se realiza para un contexto climático concreto, el de la ciudad de Madrid. Para los análisis de las diferentes condiciones de implantación objeto del estudio, se han empleado unas herramientas informáticas singulares. Se trata de los programas de evaluación de la demanda y certificación energética de edificios, que el gobierno español pone a disposición de los usuarios de manera gratuita. Estas, son aplicaciones pensadas para la escala del edificio y/o parte de él, pero que con la metodología y simplificaciones que en el trabajo se detallan, pueden ser empleadas en la escala media de intervención urbana, tanto en nueva implantación como en rehabilitación. Hay que tener en cuenta que son estas aplicaciones las que se utilizarán en la mayoría de los casos como instrumento de evaluación y calificación del comportamiento energético de cada una de las unidades. Las tipologías objeto del estudio son: - Vivienda unifamiliar: aislada, pareada y adosada en hilera. - Bloque abierto - Bloque en H - Bloque en cruz - Torre - Manzana cerrada El contenido principal del trabajo se centra en el análisis individual de cada tipología y de su agrupación teórica sobre lo que podíamos llamar "unidad urbana", una manzana tipo de 10.000 m2, 1 ha. Se opta por esta unidad por tratarse de una superficie urbana lo suficientemente amplia para caracterizar la agrupación de las diferentes tipologías estudiadas y por adaptarse a las capacidades de las herramientas informáticas que se han utilizado. Se han analizado diferentes opciones tipológicas de ocupación, manteniendo constantes en todas las soluciones estudiadas, los siguientes parámetros: • el clima (Madrid), • la edificabilidad (en todas menos una en la que el modelo no permite alcanzar la edificabilidad de referencia), • la pureza formal del modelo, evitando los juegos compositivos de retranqueos y salientes de la envolvente que distorsionen el comportamiento de la volumetría primaria, • las soluciones constructivas de la envolvente y particiones interiores de los edificios, • las proporciones de huecos en la envolvente, • las soluciones de sus carpinterías y vidrios • y todas las condiciones operacionales que aplica el programa de simulación. Esta tesis, es un estudio analítico y evaluado, del comportamiento de cada uno de los tipos, su forma y posicionamiento en el espacio. Cada uno de los modelos se simula de manera individual y agrupados, con el fin de conseguir colmatar la edificabilidad de referencia sobre la parcela urbana de 1 ha. Todos los resultados se estudian de forma independiente y los resultados se expresan en diferentes tablas y un resumen en fichas individuales por tipos. La conclusión principal del trabajo es que la tipología elegida como contenedor residencial urbano determina en su elección acertada la primera medida de ahorro energético y reducción de emisiones cuantificables en más del 50% entre las tipologías más favorables y las más desfavorables. Una segunda parte del trabajo de investigación, consiste en la aplicación de esta metodología de simulación y empleando las mismas herramientas, en el estudio de casos reales en la comunidad de Madrid (principalmente en la ciudad de Madrid). El objetivo es validar el procedimiento y dichas herramientas, también para el caso de evaluación de tejidos urbanos consolidados. Como caso singular de estudio de rehabilitación urbana, se analizan las intervenciones de rehabilitación partiendo de criterios acústicos y las oportunidades que plantearía la inclusión de criterios térmicos aprovechando la sinergia entre ambas demandas, la de confort acústico y térmico. ABSTRACT This PhD work is about saving energy in buildings and urban planning. The premises in this case are a very demanding European and national policy, aimed decisively towards efficient and economic buildings. The study focuses on the initial decisions taken on the conditions of occupation of urban land, the most suitable building types, their morphology and scale and the implications for the final energy performance, always considering policy objectives. This essay tries to quantify how important this decisions are in energy savings terms. All analysis are performed for a particular climatic context, the city of Madrid. For the analysis of different implantation conditions under study, we have used a unique software tool. This software, a free tool available online, quantifies demand assessment and energy certification of buildings. It is designed for building scale and / or part of it. With the methodology and simplifications detailed in this paper, the software can be used in medium scale urban intervention. There are different types under study such as, isolated house, semi-detached, terraces row, open block, h block, cross block, tower, etc. The main content of the work focuses on the individual analysis of each type and its theoretical group, named urban unit group. This unit is chosen because it is an urban area large enough to characterize the grouping of the different types studied. It is also possible to simulate with the software tools. Different options of typological occupation have been analyzed taking in consideration the next parameters: climate, floor area, model formal purity, building envelope solutions and interior partitions of buildings, the proportions of voids in the facades. This thesis is an analytical and evaluated study of the behavior of each types, form and position in space. Each of the models is simulated individually and grouped, in order to get the reference buildable urban plot of 1 ha. All results are studied independently and the results are expressed in different tables and a summary in individual files by type. The main conclusion of the study is that the type chosen as urban residential container you choose determines the first step in successful energy savings and quantifiable reduction of emissions by more than 50% in the most favorable and the most unfavorable types. A second part of the research, is the application of this methodology and simulation using the same tools in the study of real cases in the community of Madrid (mainly in the city of Madrid). The aim is to validate the procedure and such tools, also for the case of evaluation of consolidated urban fabric. As a unique case study of urban renewal, rehabilitation interventions based on acoustic criteria and opportunities arise thermal criteria including leveraging the synergy between the two demands, acoustic and thermal comfort are analyzed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La arquitectura y la construcción deben generar un bien común para la sociedad y medio ambiente, los arquitectos tienen la responsabilidad de mitigar muchos efectos negativos que se generan en esta profesión; esto no es posible si los estudiantes egresan con un conocimiento nulo sobre la arquitectura sostenible; por lo que surge la inquietud de desarrollar la presente tesis, con el objetivo de aportar de una forma sutil al desarrollo de la arquitectura compartiendo conocimiento para generar conocimiento, ya que la investigación que a continuación se desarrolla está enfocada al desarrollo de la arquitectura sostenible en el campo de la formación de los estudiantes, donde se pueda enlazar los nuevos requerimientos profesionales planteados desde la sostenibilidad. La formación del arquitecto ha intentado abordar el conocimiento humanístico, técnico, cultural, tecnológico, calculo estructural, instalaciones y construcciones; sin embargo, se ha dejado a un lado lo que abarca la arquitectura sostenible, como calidad de vida, diseño bioclimático, energías renovables, normativas sostenibles, economía viable, emisiones, contaminación y residuos generados, materiales, elementos constructivos sostenibles, mancha urbana, huella ecológica, impacto ambiental y análisis del ciclo de vida, entre otras estrategias o elementos. A través de la investigación científica y profunda que se ha realizado, se busca conformar el conocimiento sistemático que contribuya a la resolución de los problemas de nuestra sociedad, ambiente y educación, con la elaboración de un sistema metodológico de evaluación y aplicación de sostenibilidad en los modelos educativos. Para desarrollar el sistema de evaluación y aplicación, se desarrolla una metodología de investigación donde se justifica la necesidad de la creación de dicho sistema, en base al análisis de la situación actual del medio ambiente y la relación directa con la arquitectura, construcción y conocimientos adquiridos en la formación de los estudiantes de arquitectura, donde se demuestra la importancia de la educación de la arquitectura sostenible en el desarrollo de las sociedades. En base al análisis de metodologías y sistemas que evalúan la sostenibilidad de los edificios y los sistemas que evalúan la educación, se propone uno propio para evaluar las asignaturas de los modelos educativos en base a elementos sostenibles propuestos. La presente investigación se enmarca en una estrategia general de promover la evaluación y aplicación de la sostenibilidad en los modelos educativos de las escuelas de arquitectura a nivel internacional; como caso de estudio se evaluará el plan de estudios llamado Minerva, de la Benemérita Universidad Autónoma de Puebla en México, donde he realizado una estancia de investigación y la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid en España, donde he cursado el doctorado. ABSTRACT Architecture and construction must generate a common good for the society and environment, the architects have the responsibility of mitigating many negative effects that are generated in this profession; this is not possible if the students graduate with a void knowledge on the sustainable architecture that is why the concern for developing the present thesis, with the aim to contribute to the development of the architecture sharing knowledge to generate knowledge, seeing as the investigation that later develops is focused on the development of the sustainable architecture in about the student’s professional training, where it could connect the new professional requirements raised from the sustainability. The architect’s professional training has tried to approach the humanistic, technical, cultural, technological knowledge, structural calculation, fittings and constructions; nevertheless, there has been left aside what includes the sustainable architecture, as quality of life, design bioclimatic, renewable energies, sustainable regulations, viable economy, emission, pollution and generated, material residues, constructive sustainable elements, urban spot, ecological fingerprint, environmental impact and analysis of the life cycle, between other strategies or elements. Across the scientific and deep research that has been realized, it reaches to make up the systematic knowledge that he contributes to the resolution of the problems of our society, environment and education, with the production of a methodological system of evaluation and application of sustainability in the educational models. To develop the system of evaluation and application, there is a methodology of research where it justifies itself the need of the creation of the above mentioned system, on the basis of the analysis of the current situation of the environment and the direct relationship with the architecture, construction and knowledge acquired in the architecture student’s education, where there is demonstrated the matter of the education of the sustainable architecture in the development of the companies. Based on the analysis of methodologies and systems that evaluate the sustainability of the buildings and the systems that evaluate the education, there is one own proposes to evaluate the subjects of the educational models on the basis of sustainable proposed elements. The present research places in a general strategy of promoting the evaluation and application of the sustainability in the educational models of the schools of architecture worldwide; since case of study will evaluate the study plan called Minerva, of the Meritorious Autonomous University of It Populates in Mexico, where I have realized a stay of researching and the Technical Top School of Architecture of the Technical University of Madrid in Spain, where the PHD has been done.