18 resultados para Vulnerabilidad diferencial

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es ya desde mucho tiempo atrás que me preocupa el tema de las relacciones que pueda haber entre la constitución física y la personalidad de los individuos, pues siempre me he planteado el problema de que una deficiencia física, que no tiene porque ser patológica, o cualquier " constitución corporal n que se salga de la normalidad, condiciona, en muchos casos, en gran medida la forma de actuar de los individuos , en sus relaciones con los demás, apareciendo, por ejemplo, tendencias agresivas, suspicacias, desconfianzas, etc. aparte también, por supuesto, de otra seria; de condicionamientos, pero que ahora no vamos a analizar. De la misma forma, otros individuos, por su constitución corporal son más tranquilos, afables, confiados, etc. Se me ha dado ahora la oportunidad de cerciorarme por propia experiencia, incluyendo este trabajo, en el grupo que lleva el subtítulo colectivo de: "ESTUDIO DIFERENCIAL DE APTITUDES DE ESTUDIANTES DE PROFESORADO DE EDUCACIÓN FÍSICA ", y me he decidido por realizar esta investigación titulada: n CONSTITUCIÓN FÍSICA Y PERSONALIDAD EN ESTUDIANTES DE EDUCACIÓN FÍSICA ", esperando poder dar al final, algunas conclusiones que puedan confirmar lo que en un principio me ha movido, ver que hay diferencias en algunos rasgos de personalidad entre los estudiantes de Educación Física y los demás estudios realizados por otros auto res.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este libro, Problemas de Geometría Analítica y Diferencial, junto con otros dos, Problemas de Matemáticas y Problemas de Geometría, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 907 problemas, de los que 707 se refieren a la geometría analítica y 200 a la geometría diferencial. Los correspondientes a la geometría analítica se reparten entre la geometría del plano, con 491 problemas (elementos, circunferencia, lugares geométricos, cónicas, curvas), y la del espacio, con 216 problemas (elementos, lugares geométricos, cuádricas, otras superficies y curvas). Los referentes a la geometría diferencial se reparten entre los correspondientes al plano, con 123 problemas, y los correspondientes al espacio, con 77 problemas. Esta segunda edición de Problemas de Geometría Analítica y Diferencial tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El propósito del presente Proyecto de Fin de Carrera consiste en la elaboración de un modelo metodológico y cartográfico sobre vulnerabilidad urbana aplicado al caso del entorno histórico-artístico del municipio madrileño de Nuevo Baztán, pero extensible y aplicable a cualquier otro municipio de características similares en cuanto a extensión e historia se refiere. El trabajo consta de dos partes bien diferenciadas: una primera topográfica, mientras que la segunda se centra en el propósito capital de este proyecto, esto es, el estudio de vulnerabilidad urbana. En efecto, la primera fase de este trabajo se centra en la realización de un levantamiento topográfico, cuyo grado de detalle a la hora de dar coordenadas a puntos tendrá como finalidad la obtención de un plano a escala 1/500. Dicho levantamiento se lleva a cabo por medio de una doble poligonal encuadrada, sirviendo como canevás para a continuación efectuar, a partir de ella, una radiación a partir de las mismas, donde se obtienen las coordenadas de la nube de puntos que integrarán este primer objetivo de carácter topográfico, pero sobre todo cartográfico. Obtenida esa base cartográfica a partir de su procesamiento y edición en AutoCAD, se procede a implementar la segunda y principal fase de este Proyecto, el estudio de vulnerabilidad urbana. Este estudio se focaliza en dos aspectos fundamentales: la conservación y grado de deterioro de los materiales que integran el elemento a estudiar, y el grado de adecuación o impacto en el paisaje urbano que tiene dicho elemento digno de estudio. A su vez, los elementos que se proceden a estudiar se clasifican en tres categorías: edificaciones, mobiliario urbano y pavimentación. Con arreglo a esto, se preestablecen las escalas de valoración, y justamente a continuación se implementa el proceso de evaluación en todo el entorno histórico-artístico del municipio. La culminación de este trabajo tiene como objetivo reflejar esa evaluación de vulnerabilidad en la cartografía preexistente. Para ello, se diseñan dos escalas de color, una cromática y otra de intensidad (niveles de gris), reflejando la conservación y la adecuación respectivamente. La combinación de ambas dará como resultado final un plano donde se reflejarán todos los aspectos de la evaluación de forma temática, con diferentes tonalidades e intensidades de colores, dando una idea de la vulnerabilidad urbana, como concepto general, en la totalidad del entorno histórico-artístico de Nuevo Baztán. Como trabajo añadido, se procede a elaborar también una cartografía donde quedan reflejadas las mejores visuales a los elementos arquitectónicos de mayor interés, en el contexto de un itinerario turístico considerado como el más idóneo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la práctica de la valoración inmobiliaria se han desarrollado diferentes métodos para la obtención del valor, ajustados a las características del bien a tasar. El procedimiento para la determinación del valor del inmueble difiere si se trata de un suelo vacante, o una vivienda de segunda mano. La aplicación de los distintos métodos técnicos de valoración necesita de información concreta sobre las condiciones del mercado. Sin embargo, esta información no siempre está disponible. Por ello, se hace precisa la búsqueda de procedimientos de valoración alternativos, que permitan aplicar métodos de valoración inusuales en los diferentes submercados. Por otra parte, la aplicación del método del coste y, más concretamente, la cuantificación de la depreciación, desvincula completamente la pérdida de valor de un inmueble de la localización del mismo. Esta tesis doctoral se plantea la búsqueda de un modelo que relacione la pérdida de valor con variables de localización, partiendo de la hipótesis de que tal relación existe, y además es determinante en la pérdida de valor. Para ello, se ha seleccionado un ámbito de análisis muy concreto, tipológica y geográficamente: la edificación residencial colectiva en la Almendra Central de Madrid. El espectro es suficientemente acotado como para ser abarcable, pero suficientemente complejo como para permitir la existencia de una variabilidad que permita extraer conclusiones de interés para el campo de la valoración inmobiliaria. Con carácter previo a la aplicación de un análisis econométrico, se ha estudiado en profundidad el proceso de formación del espacio urbano y la evolución de su tejido residencial. Se ha prestado especial atención a aquellos aspectos que pudieran ser más relevantes para la caracterización de la construcción, ya sea por factores de localización o cronológicos. En este sentido, se demostrará que es especialmente relevante la identificación de un edificio con una determinada época, y no tanto con su fecha de construcción. Esta relación no es lineal a lo largo del tiempo, identificándose periodos más penalizados, desde el punto de vista de la valoración. La utilización de modelos de precios hedónicos permite confirmar la estrecha relación entre el mercado secundario y el de obra nueva: tiene más peso en la cuantificación de la depreciación el valor de la vivienda nueva, que el estado de conservación del inmueble a valorar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesina es el resultado del esfuerzo personal y particular de una persona pero integrado en un proyecto colectivo de estudio, discusión, experimentación y verificación de hipótesis que desde hace varios años venimos madurando, y cuyos frutos comienzan a recogerse. Precisamente la mayor parte de las tesinas que se presentan bajo el subtítulo colectivo de: “ESTUDIO DIFERENCIAL DE APTITUDES DE ESTUDIANTES DE PROFESORADO DE EDUCACIÓN FÍSICA”, tienen sus raíces en los Seminarios de Psicopedagogía, que desde hace cuatro años se desarrollan bajo el titulo genérico de "Tareas y aptitudes del profesional de Educación Física". Allí pudimos comprobar lo difícil que es el realizar un análisis de las tareas que realiza y debe realizar un profesional de la E.F. Como campos de nuestro interés fueron: - El estudio de las tareas que caracterizan la función del profesor de Educación Física. - La descripción y el análisis de las aptitudes convenientes para el desenvolvimiento en dichas tareas. - La critica de los procesos de desarrollo de las capacidades y los sistemas de formación. A través de mucho tiempo de búsqueda y de clarificación de ideas, en la autoafirmación y en el aprendizaje de las técnicas de estudio, de discusión, que nos proporcionaron, aparte de conceptos, el saber respetar el parlamento de los demás, y de esta manera, saber sentar premisas de estudio y experimentación. Y de esta labor comunitaria, entre alumnos y profesores. No llega a más., porque se queda en la consabida aportación investigadora de los españoles, en el caso típico de una tesis doctoral, que viene a ser como la aportación personal a la sabiduría nacional, que generalmente suele ser mejor que lo que hay, y en algunas ocasiones igual hasta es el único, pues, es muy difícil sustraer de las necesidades cotidianas el tiempo preciso para hacer aportaciones a la Ciencia Española. Esta tesina además de servir a su elaborador a conseguir un título que le dote de la debida titulación académica, es también una aportación gratuita con el único objetivo que valga para señalar algún rumbo más claro, que el existente. Nuestro problema se centra en la pregunta ¿Qué es, cómo debe ser y cómo se puede ser o llegar a ser, un buen profesor de E.F.? Aunque estos primeros trabajos están cargados de una cierta dosis de emoción. No obstante se ha hecho el proyecto sobre el análisis y descripción de aptitudes y se ha llevado a cabo tomando diversas muestras de estudiantes de Educación Física. Aunque somos conscientes que el estudio hubiese sido más válido si se hubiese efectuado con profesores de E.F. en activo, pero de no haber podido realizarlo, y con la idea de que en un futuro no muy lejano nosotros seremos profesionales de la Educación Física, nos anticipamos, con la confianza de la poca variabilidad de las aptitudes, de cada uno. Los planteamientos de los estudios, en conjunto se han formulado para constatad diferencias, tratando de desarrollar todos los puntos de vista que se pueda sobre el rol del Profesor. Mi estudio exploratorio entra a formar parte de eso tan debatido y estudiado, como es por una parte el rendimiento, que es considerado por la mayoría como un tema crítico de suma importancia. Y se ha buscado la otra variable, no menos debatida y hasta baqueteada aptitud superior, aptitud mental, o de cuantas formas se la ha dado en llamar. Como puede verse, es obvio, que sin la colaboración de nuestros compañeros, únicos protagonistas de esta buena o peor obra, pero que ellos han querido contribuir a ella con todo su tesón y entusiasmo. Y como reflejo de su paso por este trabajo ahí quedan esos números y letras que forman parte de ellos mismos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Haití, es un país claramente prioritario como receptor de cooperación para el desarrollo. Tras el terremoto del 12 de enero de 2010, se ha desarrollado un Proyecto de Cooperación Interuniversitaria entre la Universidad del Estado de Haití y la Universidad Politécnica de Madrid, financiado por la Agencia Española de Cooperación Internacional para el Desarrollo.El proyecto consiste en la formación y capacitación de los técnicos Haitianos para reconstruir su país. Se está trabajando en la creación de una escala macrosísmica Haitiana, partiendo como base de la Escala Macrosísmica Europea 1998. En este sentido, se hace un análisis exhaustivo de toda la documentación técnica y científica existente hasta la fecha sobre tipos de edificios, clases de vulnerabilidad y grados de daños dependiendo del tipo de edificio. Como caso de estudio se aplica en la ciudad de Puerto Príncipe.En primer lugar se ha clasificado el parque inmobiliario de Puerto Príncipe en diferentes tipologías constructivas, tras un trabajo de campo y teniendo en cuenta las guías de auto-construcción y reparación de edificios publicadas por el Ministerio de Obras Públicas, Transporte y Comunicaciones de Haití. (MTPTC).En el estudio de la vulnerabilidad, además del tipo de estructura de los edificios, se tiene en cuenta la habitabilidad básica que debe tener todo asentamiento humano, analizando no sólo el edificio, sino todo el entorno externo de espacios públicos, infraestructuras, dotaciones y servicios que, en conjunto,conforman el núcleo de cada población y permiten el funcionamiento eficiente del sistema de asentamientos del territorio habitado; pues, en última instancia, dicho territorio construido es el que mejor acota los riesgos ante la vulnerabilidad material y más garantiza la vida saludable de las personas. Los parámetros estudiados son: urbanísticos (anchos de vías, dimensiones de manzanas, trazado, infraestructuras,...), geológicos (estudios del efecto local e identificación de las fallas activas respecto a la edificación) y topográficos (implantación del edificio en zonas llanas, en laderas...). En último lugar, con todos estos datos y los daños registrados en el terremoto de enero de 2010, se hace una escala de intensidades macrosísmica y un plano de ordenación de la vulnerabilidad en Puerto Príncipe, que sirva de base a las autoridades haitianas para la planificación urbanística y la reconstrucción, mitigando de esta manera el riesgo símico. SUMMARY Haiti is a clear priority country as a recipient of development cooperation. After the earthquake of January 12, 2010, an Inter-University Cooperation Project has been developed between the State University of Haiti and the Polytechnic University of Madrid, funded by the Spanish Agency for International Development.The project consists of training and qualifying Haitian technicians to rebuild their country. We are currently working on the creation of a Haitian Macroseismic Scale,based on the European Macroseismic Scale 1998.For the accomplishment of this goal, a comprehensive (deep) analysis is being held, going through all the scientific and technical documentation to date, related to building types, kinds of vulnerability and degrees/ levels of damage depending on the type of building. As a case study, this has been applied to the city of Port-au-Prince.First of all, we have classified the housing typology of Port-au-Prince in different construction types, after carrying on field work in this area and keeping in mind the guidelines for self-construction and repairment of buildings published by the Ministry of Work, Transport and Communications of Haiti. (MTPTC).Regarding the study of vulnerability, besides the type of structure of the buildings, we take into account the basic habitability every human settlement should have, analyzing not only the building, but all the external environment of public spaces,infrastructures, amenities and services, which, as a whole, shape the core of each population and allow the efficient functioning of the settlement system on the inhabited territory. It is this territory,ultimately, the one that better narrows the risks when facing material vulnerability and that better ensures a healthy life for people. The studied parameters are: urban (lane width, block dimensions, layout, infrastructure...), geological (studies focusing on local effects and identification of the active faults in relation to the building) and topographical (implementation of the building on flat areas, slopes...)Finally, with all this data (information) and the registered damages related to the earthquake occurred in 2010, we create a Macroseismic Intensity Scale and a Management Plan of the vulnerability in Port-au-Prince. They will serve as a guideline for Haitians authorities in the urban planning and reconstruction, thus reducing seismic risk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hasta ahora, la gran mayoría de los recursos explotados de gas natural procedían de acumulaciones convencionales de gas aislado y de gas asociado y disuelto en el petróleo. Sin embargo, el gas natural se encuentra también en yacimientos que, debido a su baja porosidad y permeabilidad, tienen unas características que hacen que hasta muy recientemente no hayan sido económicamente rentables y que sólo puedan ser explotados mediante técnicas no convencionales, dando lugar al denominado gas no convencional. Las técnicas utilizadas para su extracción son la fracturación hidráulica o “fracking” y la perforación horizontal. Entre los diversos tipos de gas no convencional, es de prever que el gas de pizarra sea el que sufra mayor desarrollo a medio plazo en nuestro país, por lo que se están generando grandes debates, debido al riesgo de contaminación de las aguas superficiales y subterráneas del entorno, provocados por la elevada cantidad de agua utilizada, los aditivos empleados, los fluidos de retorno, por la alteración del medio físico, así como por la dificultad de monitorización de estos procesos. En este proyecto se identifican los riesgos ambientales y sanitarios asociados a la extracción de gas no convencional. El trabajo se basa principalmente en experiencias ocurridas en países donde el fracking se ha convertido en una práctica habitual. Se trata además de establecer las bases necesarias para la estimación de la vulnerabilidad de los acuíferos frente a la contaminación inducida por la fracturación hidráulica. Abstract Until now, most of the natural gas resources exploited were from isolated conventional gas accumulations and associated and dissolved gas in oil. However, the natural gas is also in reservoirs that, due to their low porosity and permeability, have characteristics that make until recently not been economically profitable and can be exploited only by unconventional techniques, leading to the so called unconventional gas. The techniques used for extraction are hydraulic fracturing or "fracking" and horizontal drilling. Among the various types of unconventional gas, it is expected that shale gas is the suffering greater medium-term development in our country, so it is generating much debate, due to the risks of contamination in surface waters and subterranean environment, caused by the high amount of water used, the additives used, the return fluid, by altering the physical environment, and the difficulty of monitoring these processes. In this project identifies the environmental and health risks associated with unconventional gas extraction. The work is mainly based on experiences that occurred in countries where fracking has become a common practice. This is for establish the necessary basis for estimating the vulnerability of aquifers from contamination induced by hydraulic fracturing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesina es el resultado del esfuerzo personal y particular de una persona pero integrado en un proyecto colectivo de estudio, discusión, experimentación y verificación de hipótesis, que desde hace varios años venimos madurando, y cuyos frutos comienzan a recogerse. Tres campos se ofrecieron a nuestra meditación: el estudio de las tareas que caracterizan la función del profesional de la Educación Física; la descripción y análisis de las aptitudes convenientes para el desenvolvimiento en dichas tareas; la critica de los procesos de desarrollo y de las capacidades y los sistemas de formación. Los campos son el referido a la constitución corporal, a las aptitudes intelectuales, el rendimiento escolar y físico, y finalmente al aprendizaje motriz, principalmente. Los aspectos estudiados son: 1. Se ha tratado de aclarar cuál es el somatotipo característico del profesor de E.F., cuáles son las relaciones entre el hábito corporal y diversas variables de personalidad, de aptitudes, de rendimiento físico y escolar. 2. Se ha llevado a cabo, con gran cantidad de variables, un estudio sobre las dimensiones características de la personalidad y las relaciones de estos rasgos con diversos aspectos de aptitudes y entre grupos. 3. Por descontado en estos estudios se tienen en cuenta las diversas aptitudes físicas, psicomotrices, intelectuales (verbales, espaciales, razonamiento, etc.), relacionadas con diversos aspectos del potencial y rendimiento personales. 4. El rendimiento es un tema criterial importante, por eso se han buscado las relaciones entre los datos morfológicos, motrices, físicos, intelectuales, de personalidad. etc., y los resultados en el rendimiento académico, físico-deportivo, o motriz. 5. Finalmente nos interesa pasar al estudio de las comparaciones entre grupos, sobre todo cuando dentro del mismo “curriculum” escolar se pueden cursar diversas especialidades. Hemos llevado a cabo comparaciones sobre los aspectos aptitudinales, de rendimiento, personalidad, etc., para diversos grupos de Maestrías en Deportes. Por otra parte, se está procediendo a realizar comparaciones entre estudiantes de Educación Física, atletas, deportistas u otros estudiantes, referidas a ciertas variables. Como puede verse, es bastante extenso el campo de investigación, pero difícilmente podrá profundizarse en él, si no se cuenta con herramientas apropiadas. Por ahora, sólo hemos arañado con un tosco arado romano, pero creemos que la semilla no se secará y dará pequeñas cosas, como es esta tesina, cuyos argumentos contenidos, esquema experimental y resultados, servirán de apoyo a objetivos más ambiciosos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las raíces de mi trabajo surgieron en el Seminario de Psicopedagogía de cuarto curso de Educación Física, en el cual el Profesor D. Ángel Mayoral, además de impartir las clases de dicho Seminario estaba dirigiendo una serie de tesinas con un objetivo común: intentar averiguar cuales son las aptitudes y tareas del profesor de Educación Física. Después de hablar de los temas que a mi me han preocupado siempre, como la constitución, la personalidad y las aptitudes físicas de una persona, él me animó y me prometió la dirección de dicha tesina, ya que entraba dentro de la dirección que habla tomado con las otras tesinas y así poder trabajar juntos, todos los que bajo su dirección estábamos. La muestra elegida, utilizada por todo el grupo, fueron nuestros propios compañeros, por ser los más cercanos a nosotros y poder realizar todas las pruebas, (que no eran pocas) y por considerarla una muestra bastante representativa de la población que nos proponíamos estudiar, (estudiantes de educación física). La labor de recogida de datos fue bastante ingrata, tanto para nosotros como para los compañeros testados a los que debo un sincero agradecimiento por el esfuerzo realizado y la colaboración que tuvieron, ya que eran muchas horas de aplicación de tests, tanto de aptitudes físicas como de personalidad. Toda la recogida de datos fue estrictamente metódica, utilizando de manera uniforme a toda la muestra. Una vez tomados todos los datos hemos intentado ver las relaciones entre las variables utilizadas manejando diversos tratamientos estadísticos procesados en el Centro de Cálculo de la Universidad de Madrid, mediante un ordenador I.B.M.-370 y el paquete de programas B.M.D.P. En cuanto a la teoría expuesta no se ha intentado inventar nada, sino exponer lo que presentan una serie de autores suficientemente cualificados, con sus propias teorías y ver en qué consiste cada tema por separado, para que se comprenda el último tema, lo que intento demostrar con la hipótesis de relación de la constitución corporal, aptitudes físicas y personalidad de los estudiantes de Educación Física.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo analiza la evolución de las áreas con población vulnerable y la segregación residencial del Área Urbana de Madrid (AUM) entre los años 1991 y 2001. La investigación se realiza mediante el análisis de dos índices utilizados anteriormente en la medición de la desigualdad urbana y la segregación espacial (HERNÁNDEZ AJA, 2009): el índice de población analfabeta y sin estudios, y el índice de viviendas sin retrete o cuarto de aseo. En el periodo de estudio observado ambos índices experimentaron mejoras significativas en escalas de agregación espacial nacional, regional o de área urbana (INE, 2004). Sin embargo, en este trabajo se refleja que la distribución de estas mejoras a escalas municipales e inframunicipales no es homogénea: en este periodo se incrementaron los desequilibrios internos en el AUM y éstos responden a patrones espaciales diferenciados para los municipios de la corona metropolitana y el municipio central del AUM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente, diversos terremotos han puesto de manifiesto la importancia de planificar las ciudades y la gran influencia que tiene el comportamiento de los edificios como consecuencia de los resultados de pérdidas humanas y económicas. Ante la imposibilidad de evitar la ocurrencia de terremotos y de predecirlos con un margen pequeño de tiempo para tomar acciones a corto plazo, la reducción de la vulnerabilidad de los elementos expuestos es la medida más eficaz para prevenir los daños y para evitar el desastre. Existen varios estudios anteriores de Norman B. Green (1980), Teresa Guevara López (2009 y 2012) que recogen criterios ya generalizados dentro de la bibliografía sísmica y algunos aspectos procedentes de norma sísmicas precursoras en este campo (por ejemplo, las peruanas) para establecer inicialmente unos principios urbanístico-sísmicos. Además, varios proyectos relacionados con el riesgo sísmico, RisK-Ue (2003), SERAMAR (Lars Abrahamczyk et al., 2013) han desarrollado metodologías que clasifican la vulnerabilidad de los edificios teniendo en cuenta modificadores por comportamientos y configuraciones irregulares sísmicamente. El presente trabajo desarrolla una metodología empírica para identificar y caracterizar los parámetros urbanísticos que determinan una respuesta sísmica irregular de las edificaciones, graduar su relación con el daño tras un terremoto y poder así disminuir la vulnerabilidad sísmica de las ciudades. La metodología desarrollada en esta tesis doctoral se aplica en la ciudad de Lorca, Región de Murcia. Se realiza un trabajo de campo donde se clasifican los edificios según su tipología estructural y sus parámetros urbanísticos. A través de un estudio estadístico se analiza la correlación con el daño de las edificaciones tras el terremoto del 11 de mayo de 2011. Previamente se ha hecho una clasificación de los edificios según la clase de suelo en la que se encuentran según el Eurocódigo8 (Navarro et al, 2012). Por último, se aplica la metodología para obtener una estimación de la habitabilidad de los edificios en Lorca post sismo. Para esta clasificación se ha adoptado el criterio recogido en diversas recomendaciones internacionales, la mayoría de las cuales se basan en la documentación generada por el ATC- Applied Technology Council, distinguiendo entre edificios habitables (no daño-daño no estructural) y edificios no habitables (daño estructural). ABSTRACT Currently, various earthquakes have made clear first, the importance of city planning and secondly, the great influence that has the behaviour of buildings as a consequence of the results of human and economic losses. Faced with the impossibility of avoiding the occurrence of earthquakes and predicting its with a small margin of time to take action in the short term, the reduction of the vulnerability of exposed elements is the most effective measure to prevent damage and to prevent the disaster. There are several previous studies, Norman B. Green (1980), Teresa Guevara López (2009-2012) collecting criteria already widespread within the seismic bibliography and we can find some aspects from standard seismic precursor in this field (for example, the Peruvian) to initially establish urban - seismic principles. In addition, several projects related to seismic risk, RisK-EU (2003), SERAMAR (Lars Abrahamczyk et al., 2013) have developed methodologies that classify the vulnerability of buildings taking into account modifiers for behaviours and irregular configurations in seismical terms. This paper develops an empirical methodology to identify and characterize the irregular urban parameters seismically, graduate its relationship with the building damages after an earthquake and thus reduce the seismic vulnerability of cities. The methodology developed in this thesis applies in the city of Lorca, Region of Murcia. Fieldwork where buildings are classified according to their structural type and its urban performance parameters. Through a statistical study the correlation with damage of buildings is analyzed after the earthquake of May 11, 2011. Previously a classification of the buildings has been made according to the kind of soil according to the Eurocodigo 8 (Navarro et al, 2012). Finally, you get an estimate of the building habitability in Lorca. As a result, this classification adopted the criterion contained in various international recommendations, most of which are based on the documentation published by the ATC - Applied Technology Council, habitable buildings (not damage -damage non-structural) and non habitable buildings (structural damage).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este Trabajo se ha establecido un contexto general del lugar donde se ha realizado el proyecto,el municipio cacereño de Hervás así como el desarrollo de un estudio de vulnerabilidad del mismo camino y de su entorno a través del diseño de un SIG. El objetivo general del proyecto es el asentamiento de los conocimientos adquiridos durante la carrera, relacionados con el Urbanismo, Ordenación del Territorio los Sistemas de Información Geográfica, consolidando un punto de partida para la propuesta de nuevas iniciativas que permitan valorar la vulnerabilidad paisajística y medioambiental de cualquier municipio. El motivo de la realización de este es proyecto es la posibilidad de mejorar un entorno natural,en el que se observó que carecía de las medidas necesarias para optimizarlo de manera sostenible, de acuerdo con lo requerido para un paisaje natural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento forma parte de una serie de entregas realizadas en el marco del proyecto CLIMIFORAD, financiado por el BANCO INTERAMERICANO DE DESARROLLO, y por la UNIVERSIDAD POLITÉCNICA DE MADRID. En este documento se presenta el procedimiento de análisis de la vulnerabilidad futura de los ecosistemas forestales ante los impactos potenciales del cambio climático, mediante la proyección de los modelos de distribución de especies bajo escenarios de clima futuro, y la evaluación de su sensibilidad frente al cambio climático. Dicha sensibilidad es estudiada mediante diferentes índices que relacionan los cambios en la superficie de distribución actual y futura. El conocimiento de La sensibilidad de las especies vegetales ante el cambio climático, permite caracterizar la vulnerabilidad de los ecosistemas de los territorios seleccionados por el proyecto CLIMIFORAD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante los años de boom inmobiliario la obtención de plusvalías a través del desarrollo de operaciones de obra nueva fue llevada hasta sus últimas consecuencias. Ya en los años previos al estallido de la burbuja inmobiliaria, y con mayor fuerza tras éste, las políticas de rehabilitación y regeneración urbana se han presentado como una salida para un sector en crisis. Pero no sólo ese puede ser el objetivo, es necesario considerar la rehabilitación en áreas urbanas como una herramienta para el reequilibrio de la ciudad fragmentada y la incorporación de sus habitantes y espacios al proyecto de construcción de la ciudad democrática. Teniendo en cuenta esta dualidad, debemos plantearnos diversas cuestiones: ¿Cuál ha sido hasta ahora la evolución de las políticas de fomento de la rehabilitación urbana? ¿Cómo es el procedimiento que articula y gestiona el trasvase de ayudas al sector privado? ¿Sobre qué áreas de la ciudad han recaído las ayudas? Para dar respuesta a estas preguntas hemos analizado los programas de rehabilitación en áreas desarrollados en las últimas décadas a través de la financiación de los Planes de Vivienda estatales. El trabajo por un lado se centra en desgranar los documentos que conforman el marco legal de los planes de vivienda, analizando los programas y los mecanismos disponibles para la rehabilitación en áreas. Por otro, se analizan las áreas declaradas en ciudades de más de 50.000 habitantes y capitales de provincia, con el objetivo de evaluar la magnitud de las ayudas estatales y la evolución de su impacto en la ciudad consolidada y en las promociones periféricas.