833 resultados para Nanotecnología-Investigaciones-Tesis y disertaciones académicas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto fin de carrera trata del sistema de grabación y reproducción sonora ambiofónico, destacar que este sistema y la tecnología que emplea es de dominio público. La ambiofonía se basa en un amalgama de investigaciones recientes y de los ya bien sabidos principios psicoacústicos y binaurales. Estos avances han expandido nuevas fronteras en lo concerniente a la grabación y reproducción de audio, así como de presentar al oyente un campo sonoro a la entrada de sus oídos lo más parecido posible al campo sonoro al que se expondría al oyente en el momento y lugar de la toma de sonido, es decir, reconstruye un campo sonora binaural. Este sistema ha podido desarrollarse, de una manera bastante satisfactoria, gracias a todos los estudios y textos anteriores en materia de psicoacústica y del mecanismo de escucha humano. Otro factor gracias al cual es posible y asequible, tanto el desarrollo como el disfrute de esta tecnología, es el hecho que en nuestros días es muy económico disponer de ordenadores lo suficientemente potentes y rápidos para realizar el procesado de señales que se requiere de una manera bastante rápida. Los desarrolladores de dicha tecnología han publicado diversos documentos y archivos descargables de la red con aplicaciones para la implementación de sistemas ambiofónicos de manera gratuita para uso privado. El sistema ambiofónico se basa en la combinación de factores psicoacústicos ignorados o subestimados y lo ya sabido sobre las propiedades acústicas de salas, tanto de salas en las que tienen lugar las ejecuciones musicales (auditorios, teatros, salas de conciertos...), como de salas de escucha (salones de domicilios, controles de estudios...). En la parte práctica del proyecto se van a realizar una serie de grabaciones musicales empleando tanto técnicas estereofónicas tradicionales como ambiofónicas de grabación con el fin de describir y comparar ambas técnicas microfónicas. También servirá para estudiar hasta que punto es favorable subjetivamente para el oyente el hecho de realizar la toma de sonido teniendo en cuenta las propiedades del sistema de reproducción ambiofónico. Esta comparación nos dará una idea de hasta donde se puede llegar, en cuanto a sensación de realidad para el oyente, al tener en cuenta durante el proceso de grabación efectos como la respuesta del pabellón auditivo del oyente, la cual es única, y que posteriormente la diafonía interaural va a ser cancelada mediante un procesado digital de señal. ABSTRACT. This final project is about the ambiophonic recording and playback system, note that this system and the technology it uses is of public domain. Ambiophonics is based on an amalgam of recent research and to the well known and binaural psychoacoustic principles. These advances have expanded new frontiers with regard to the audio recording and playback, as well as to present the listener a sound field at the entrance of their ears as close as possible to the sound field that would the listener be exposed to at the time and place of the mucial interpretation, so we can say that ambiophonics reconstructs a binaural sound field . This system has been developed, in a fairly satisfactory way, thanks to all the studies and previous texts on psychoacoustics and human listening mechanism. Another factor by which it is possible and affordable, both the development and the enjoyment of this technology, is the fact that in our days is inexpensive to usres to own computers that are powerful and fast enough to perform the signal processing that is required in a short time. The developers of this technology have published several documents and downloadable files on the network with applications for ambiophonics system implementation for free. Ambiophonics is based on a combination of factors ignored or underestimated psychoacousticly and what is already known about the acoustic properties of rooms, including rooms where musical performances take place (auditoriums, theaters, concert halls...), and listening rooms (concet halls, studios controls...). In the practical part of the project will be making a series of musical recordings using both traditional stereo recording techniques and recording techiniques compatible with ambiophonics in order to describe and compare both recording techniques. It will also examine to what extent is subjectively favorable for the listener the fact of considering the playback system properties of ambiophonics during the recording stage. This comparison will give us an idea of how far can we get, in terms of sense of reality to the listener, keeping in mind during the recording process the effects introduced by the response of the ear of the listener, which is unique, and that the subsequently interaural crosstalk will be canceled by a digital signal processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis destaca la influencia que ejerció la teoría, las técnicas y la metodología de proyecto de los principales tratados de la época renacentista en la concepción, diseño y realización de algunos de los más importantes jardines de la época. Los tratados de Vitruvio, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio establecen una nueva estética y una nueva visión del mundo, basadas en la geometría elemental y en los números simples. En la Grecia antigua, Platón y Pitágoras intuyeron la necesidad existencial del hombre de apoyarse en unas leyes seguras de orden superior. Sus teorías sobre las leyes del Universo son retomadas y aplicadas en el arte y en el jardín por Vitruvio y por los tratadistas del Renacimiento. Según los tratadistas, la estética es el núcleo generador del que se activan la información y las leyes hacia todos los campos del conocimiento y de la vida social y, por lo tanto, la finalidad de los tratados es buscar, a través de un procedimiento científico y racional, las reglas de la belleza. Las leyes estéticas formuladas por los tratadistas examinados se aplican con el mismo rigor y respeto ya sea al paisaje que al jardín, exaltando el elemento natural al igual que el construido (la ciudad y la arquitectura). De los tratados renacentistas se han extraídos términos y conceptos que ayudan a revalorizar, reinterpretar e integrar en el debate los temas del paisaje y del jardín. La tesis sostiene que: 1) una idea moderna de jardín se tiene que fundar en la historia; 2) que la historia es indispensable incluso para enfrentar el problema del mantenimiento y de la restauración de los jardines históricos; 3) que la teoría y las ideas que tienen valor, así como nos enseña Alberti, producen obras que también tienen valor; 4) la influencia de la estética de los tratadistas se encuentra incluso en algunos importantes jardines de época moderna y contemporánea. El capítulo 1 contiene la definición de tratado y la concepción estética del Renacimiento, analizada por medio de: a) la idea de ciencia y b) a través de las pinturas. Los capítulos 2 y 3 contienen respectivamente los principios teóricos de los tratados y el diseño, la metodología, las técnicas constructivas y los métodos de representación del proyecto según los tratadistas. Estos capítulos resultan propedéuticos de los capítulos siguientes por proporcionar el instrumento de lectura e interpretación de los jardines renacentistas y modernos. El capítulo 4 destaca la gran influencia de los tratados sobre las villas y jardines renacentistas y describe sus elementos. El último capítulo, el quinto, contiene un análisis de algunos jardines modernos. Entre ellos: Chiswick, la Villa “I Tatti”, Sutton Place, y la Villa “Il Roseto” que renuevan y prosiguen, en nuestra opinión, la lección de los tratadistas. El primer anexo contiene la propuesta de líneas de investigación que surgen a la luz de la tesis, y el segundo anexo contiene las noticias biográficas de los tratadistas examinados. ABSTRACT The thesis investigates the influence exercised by the theory, techniques and project methodology contained in the most relevant essays on art and architecture of the Renaissance on the concept, design and making of some of the most important gardens of that time. The essays of Vitruvius, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio established a new concept of aesthetics and a vision of the world based on basic geometry and simple numbers. In ancient Greece, Plato and Pythagoras understood that humans needed “superior laws” to anchor their existences. Their theories on laws of the Universe were adopted and applied in art and gardening by Vitruvius and Renaissance essays authors. According to the authors of these essays, aesthetics represents the core generating information and laws that branch out toward all the fields of knowledge and social life. Therefore, the purpose of art and architecture essays consists in exploring, through a scientific and rational process, the rules of beauty. The laws of aesthetics proposed by the authors apply to landscaping and gardening with the same rigor and exalt the natural component as much as the artificial one (city and architecture). Several terms and concepts are also extracted that, despite their age, still help us to understand and enrich the contemporary debate revolving around landscaping and gardening. The thesis argues that: 1) the modern idea of gardening must be based on history; 2) history is fundamental even to address the topics of maintenance and restoration of historical gardens; 3) like Leon Battista Alberti maintains, valid theory and ideas produce valuable works; 4) the influence played by aesthetics on authors can be found in many important modern and contemporary gardens. Chapter 1 contains the definition of essay and of the Renaissance concept of aesthetics, analyzed by: a) the idea of science and 2) the analysis of some paintings of the period. Chapters 2 and 3 discuss respectively the theoretical principles of the essays and the design, methodology, construction techniques and the methods of representation of the project according to the authors. These chapters are preparatory toward the following chapters and provide us with the keys necessary to read and interpret Renaissance and modern gardens. Chapter 4 highlights the great influence exercised by those authors on the planning of important villas and gardens from the Renaissance while describing their elements. The 5th and final chapter analyzes some modern gardens among which Chiswick, Villa “I Tatti”, Sutton Place, Villa “Il Roseto”. These villas renew and in our opinion carry on the lesson of the essays written in the Renaissance. The first addendum suggests future lines of research derived from the thesis, while the second addendum contains biographical information regarding the authors examined.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis se organiza en un volumen de Memoria integrada por once capítulos que constituyen el cuerpo de la tesis y otro volumen de Apéndices titulado “Caracterización geotécnica de Base de los suelos de España” que reúne en forma de cuadros las características de textura, permeabilidad, humedad-succión, erosionabilidad y resistencia al corte de los cuarenta y dos perfiles de suelos representativos de los tipos del Mapa de suelos De España. Estos cuadros han sido elaborados originalmente por la doctorando durante sus estudios para la obtención del DEA de la Suficiencia Investigadora, excepto los de resistencia al corte que lo han sido también por la doctorando de forma original, pero ya en la etapa de redacción de la tesis. En el Capítulo 1 “Introducción” se describe la motivación, antecedentes, alcance y contenido de la tesis, ordenado según el índice que en él se incluye. Los Capítulos 2 “Meteorización, 3 “Balance Hídrico” y 4 “Humedades características” constituyen el “estado del arte” en el momento actual de los temas de geotecnia ambiental relacionados con la degradación de la superficie terrestre y la estabilidad de taludes. El Capítulo 2, tras matizar algunas generalidades, aporta elementos para la cuantificación de la alteración de rocas como el “índice climático de Weinert” y de la erosión de suelos como la “ecuación universal de pérdida de suelo (U.S.L.E.)” El Capítulo 3, partiendo de los fenómenos de precipitación y evapotranspiración, plantea el balance hídrico en vertientes con instrumentos para evaluar la infiltración y la escorrentía, conceptos imprescindibles para adentrarse en los de resistencia y erosionabilidad del conjunto suelo-agua. En los Apéndices A1 y A2, se recogen valores de coeficientes de infiltración en condiciones saturadas y no saturadas de los perfiles de suelos del Mapa de España. El Capítulo 4 se dedica al estudio de este conjunto suelo-agua con la definición de conceptos que lo caracterizan, basados en la relación entre los contenidos de ambos elementos o “humedad”, sus valores máximos y mínimos y la forma en la que es retenida el agua por el suelo. Este capítulo acaba con el concepto de “Curva característica Suelo-Agua/Soil Water Characteristic curve (SWCC)”, que liga el contenido de agua de un suelo con la tensión a la que está retenida (uauw) “succión” o con su expresión más usual “pF”. En el Apéndice A 3 se adjuntan las SWCC de los perfiles de suelos del Mapa de suelos de España. En el Capítulo 5 “Resistencia al corte de los suelos”, se detalla la influencia que tienen sobre la resistencia de los suelos factores como el paso del tiempo, el contenido de humedad y la presencia y tipo de vegetación en la superficie del suelo estudiado. El Capítulo 6 “Evaluación de la erosión”, analiza el factor de erosionabilidad del suelo “factor K” de la U.S.L.E., su evaluación en función de la textura, estructura y permeabilidad del suelo, con la estimación hecha para los cuarenta y dos perfiles de suelos del Mapa de España, contenida en el Apéndice 4. En el Capítulo 7 “Metodología de diseño” se hacen en su primera parte unas consideraciones geoambientales de diseño aplicables al estudio de los problemas de inestabilidades en taludes. La segunda parte constituye el núcleo de la tesis con la propuesta de “estimación de los parámetros de resistencia al corte del suelo”, consecuente con las teorías y metodología de análisis expuesta en los capítulos anteriores. En el Apéndice A 5 se presentan los valores de los parámetros coulombianos de resistencia al corte, ”c y Ф” estimados según la caracterización climática a partir del índice de Thornthwaite, en condicionesde diseño para humedades naturales máxima y mínima de los cuarenta y dos perfiles de suelos del Mapa de suelos de España. El Capítulo 8 “Aplicación a casos reales” se considera de gran interés al constituir una auténtica continuación de la segunda parte del capítulo anterior, desarrollando la metodología expuesta en él a cuatro problemáticas de infraestructuras de obras lineales, relacionadas con problemas de erosión y deslizamientos en taludes. El Capítulo 9 “Ensayos de referencia” se incluye como punto de apoyo (referencia) a las teorías expuestas, valorando la idoneidad de los tipos de ensayos y tipos de suelos seleccionados (Laboratorio de Geotecnia del CEDEX y Laboratorio Hong-Kong University of Science and Technology), utilizados para la obtención, por correlaciones deducidas, de las curvas SWCC de los perfiles de suelos del Mapa de España, incluídas en el Apéndice A 3, como se ha citado antes. En el Capítulo 10 “Conclusiones y Futuras Líneas de Investigación”se apuntan en primer lugar unas conclusiones que, a juicio de la doctorando, se pueden extraer con interés de esta tesis y a continuación se esbozan unas posibles líneas de investigación, fundamentalmente de tipo experimental, que complementarían los avances derivados de esta tesis o podrían esclarecer y abrir nuevas interpretaciones de los fenómenos naturales de erosión y estabilidad de taludes en los que ésta se ha centrado. Finalmente, en el Capítulo 11 “Bibliografía” se han reunido 328 referencias que reflejan una visión amplia y bastante completa del tema tratado, obtenida complementando las de tesis anteriores sobre esta singular materia (“Efecto estabilizador de la vegetación en taludes”, L Fort 1975 y “Determinación de las características de fricción en el contacto suelo-geotextil a diferentes succiones, mediante equipos de laboratorio singulares”, E Asanza 2009), con propias de la doctorando (9) y las consideradas de mayor interés de los últimos Congresos sobre Suelos no saturados,”Unsat 95”, “Unsat 2002” y “Unsat 2011” entre otros. ABSTRACT The thesis is organized in a volume of Memory composed of eleven chapters that make up the body of the thesis and other Appendices volume entitled "Geotechnical characterization of basis of the soils of Spain" that combines the characteristics of texture, permeability, moisture-suction, erosionability, and shear strength of forty-two profiles of soils representative of the types of the soil of Spain map in the form of pictures. These pictures have been produced originally by the student during their studies to obtain the DEA of the research, except those of the shear strength, also been done by the PhD student in an original way, but already at the stage of drafting of the thesis. Chapter 1 "Introducción" describes the motivation, background, scope and content of the thesis, ordered according to the index that is included. The Chapters: 2 "Weathering, 3 “Water Balance” and 4 “moisture characteristics" are the "State of the art" at the present time of geotechnical environmental issues related to the degradation of the Earth's surface and the slope stability. Chapter 2 after clarify some general information, provides elements for the quantification of the alteration of rocks as "Weinert climate index" and soil erosion as the "universal equation of loss of soil (U.S.L.E.)" Chapter 3, on the basis of the phenomena of precipitation and evapotranspiration, raises the water balance in sheds with instruments to evaluate infiltration and runoff, essential concepts into the resistance and erosionability water-soil joint. Values of soils coefficients of infiltration in saturated and unsaturated conditions from the Spain map of profiles are collected in the Appendices A1 and A2. Chapter 4 is dedicated to the study of this joint “soil-water”, with the definition of concepts that characterize it, based on the relationship between the contents of both elements or “moisture”, their maximum and minimum values and the way in which water is retained by the soil. This chapter ends with the concept of “Soil Water Characteristic curve (SWCC)", which linked the water content of a soil with the stress that it is retained (ua-uw) "suction" or its expression more usual "pF". The SWCC of the profiles of soils of the Spain soils Map are attached in the Appendix 3. In Chapter 5 “Soils shear strength”,is detailed the influence that they have on the resistance of soils factors such as the passage of time, the content of moisture and the presence and type of vegetation on the surface of the studied soil. Chapter 6 "Assessment of erosion", analyses the soil erodibility factor "Kfactor" of the U.S.L.E., its evaluation based on texture, structure and permeability of the soil, with the estimate for forty-two profiles of soils on the Spain Soils Map, contained in Appendix 4. Chapter 7 "Design methodology" some considerations are made in the first part geo-environmental design applicable to the study of the problems of instabilities in slopes. The second part constitutes the core of the thesis with the proposal of “estimation of parameters of shear strength”, of the soils consistent with theories and analytical methodology outlined in the previous chapters. Appendix A 5 presents the values of the coulombians parameters of shear strength, "c and Ф" according to the characterization of climate from the index of Thornthwaite, in design for natural moisture conditions maximum and minimum of forty-two profils of Spain Soils Map Chapter 8 "Application to real cases" is considered of great interest to constitute a true continuation of the second part of the previous chapter, developing the methodology exposed it to four problems of civil-works infrastructure, related to problems of erosion and landslides in slopes. Chapter 9 "Tests of reference" is included as point of support (reference) to the theories exposed, assessing the suitability of the types of tests and types of selected soils (Geotechnical laboratory of CEDEX and laboratory Hongkong University of Science and Technology), used to obtain, by deduced correlations, of curves SWCC of soils profiles on the Spain Soils Map, included in Appendix A. 3, as it was mentioned before. Chapter 10 "Conclusions and future research lines" are running first conclusions which, in the opinion of the candidate, can be extracted with interest of this thesis, and then, it outlines some possible lines of research, mainly experimental, which would complement the advances arising from this thesis or could clarify and open new interpretations of natural phenomena of erosion and slope stability in which it has focused. Finally, in Chapter 11 "Bibliography" 328 references have been included which reflect a broad and fairly comprehensive view of the subject matter, obtained complementing those of the previous theses on this singular issue ("Vegetation stabilizing effect on slopes", L Fort 1975, and "Determination of the characteristics of friction in the contact soil-geotextile to different-suctions, through special laboratory equipment", E Asanza 2009) with some of them from of the candidate (9) and the others from of the considered as the most interesting of recent conferences on unsaturated soils, "Unsat 95", "Unsat2002" and "Unsat 2011" among others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación nace de la necesidad de aunar el máximo conocimiento sobre el sector Desarrollo Rural, Seguridad Alimentaria y Nutrición en la Cooperación Española, tanto desde un punto de vista teórico como práctico, que facilite, por un lado, precisar los límites que abarca el sector, conceptuales y de aplicación, mejorando la eficiencia y eficacia de las intervenciones en él, y por otro, conformar una prospectiva del mismo. La tesis propone una metodología de investigación-acción, puesto que por la propia posición de trabajo de la investigadora en la AECID y en el sector, esta es, a la vez, objeto y actora de la realidad vivida y del cambio a futuro. Para el trabajo de campo se ha contado con un importante grupo de expertos en la materia, que han participado en talleres de reflexión y en la encuesta Delphi, así como con una serie de entrevistas en profundidad. El requisito de contar con un marco teórico en el que se sustente el sector es esencial y el capítulo IV contempla este, partiendo de los antecedentes y marco normativo de la política de cooperación española, substancialmente la Ley de Cooperación Internacional para el Desarrollo, pasando por los principales instrumentos de planificación de esta política: Planes Directores, Estrategias sectoriales y Plan de Actuación Sectorial de Desarrollo Rural y Lucha contra el Hambre. Se puntualiza la cooperación reembolsable en el sector, y se repasan las principales actuaciones que han tenido lugar en el contexto internacional con especial hincapié en la crisis provocada por la subida del precio de los alimentos y las medidas más significativas que se tomaron para combatirla, pasando a continuación al proceso post-2015, los Objetivos de Desarrollo Sostenible y la posición española en él. En el marco conceptual se revisan términos tales como Derecho Humano a la Alimentación, Seguridad Alimentaria y Nutrición, Seguridad alimentaria, Seguridad alimentaria nutricional, Soberanía alimentaria, Seguridad alimentaria como Bien Público Mundial, Desarrollo Rural, Desarrollo Rural Territorial, Enfoque Territorial y Resiliencia, concluyendo este apartado con la búsqueda de las interrelaciones entre Seguridad alimentaria, Derecho Humano a la Alimentación y Desarrollo Rural Territorial. El capítulo termina con un breve repaso de lo que hacen en esta materia las principales agencias de Cooperación Internacional de los donantes más importantes del CAD. En el Marco de Aplicación se acomete una comparación de la evolución de la AOD en el marco temporal de la investigación, del 2000 al 2013, concedida al sector por la Cooperación Española en función de los distintos subsectores y también una comparativa de la ayuda otorgada por los principales donantes del CAD para este mismo periodo. Posteriormente se examinan las intervenciones centrales de la Cooperación Española en Derecho Humano a la Alimentación con la sociedad civil, con la FAO y con el relator especial de NNUU para el Derecho a la Alimentación, Seguridad Alimentaria Nutricional, destacando el Fondo España-ODM y el Programa Especial de Seguridad Alimentaria (PESA)y Desarrollo Rural Territorial , sobre el proyecto EXPIDER I y II (Experiencias de desarrollo local rural en América Latina) , y el proyecto PIDERAL ( Proyecto de políticas innovadoras de desarrollo de los territorios rurales en América Latina ) y tres intervenciones con enfoque regional como son :La Iniciativa América Latina y Caribe sin Hambre (IALCSH), la Estrategia Centroamericana de Desarrollo Rural Territorial (ECADERT) y la intervención de la Cooperación Española apoyando la Política Agraria de la CEDEAO. La investigación empírica esencialmente con un enfoque cualitativo, se examina y detalla en el capítulo VI, reflejándose las principales conclusiones de la misma en el capítulo del mismo nombre, tras haber contrastado las hipótesis formuladas y posteriormente cotejar las aplicaciones prácticas de la tesis y proponer posibles nuevas líneas de investigación. ABSTRACT This research stems from the need to combine the best knowledge about the Rural Development, Food Security and Nutrition sectors in Spanish Cooperation, both from a theoretical and practical point of view, that enables, on the one hand, to specify the limits that the sector covers, both conceptual and of implementation, improving the efficiency and effectiveness of interventions in it, and on the other, shape the future thereof. The thesis proposes a methodology of research-action, which is the AECID researcher´s own position in the sector, being at the same time, both researcher and participant of the reality experienced and future change. The field work benefitted from the support of a major group of experts in the field, who participated in reflection workshops, the Delphi survey and a series of in-depth interviews. The requirement for a theoretical framework that sustains the sector is essential and Chapter IV provides for this, starting with the background and legal framework of the policy of Spanish cooperation, essentially the International Development Cooperation Law, through the main instruments of policy planning: Master Plans; sectorial strategies; the Sectorial Action Plan for Rural Development; Fight against hunger. Refundable cooperation in the sector is specified, and the key actions that have taken place in the international context with special emphasis on the crisis caused by rising food prices and the most significant measures taken to combat it are reviewed. Then continuing with the post-2015 process, the Sustainable Development Objectives and the Spanish position in them. Conceptional framework terms such as Human Right to Food, Food Security and Nutrition, Food Security, Nutritional Food Security, Food Sovereignty, Food Security as a global public good, Rural Development, Rural Regional Development, Regional Approach and Resilience are reviewed, ending this section with the search for the interrelationship between Food Security, Human Right to Food and Rural Regional Development. The chapter ends with a brief overview of what the main agencies for International Cooperation of the major DAC donors do in this area. In the implementation framework, a comparison is provided of the evolution of the ODA within the time frame of the investigation, from 2000 to 2013, granted to the sector by the Spanish Cooperation in terms of the various subsectors and also a comparison is made of the support provided by the DAC's major donors for the same period. Subsequently the core interventions of Spanish Cooperation in the Human Right to Food with civil society, with FAO and the UN Special Rapporteur on the Right to Food, Food Security Nutrition are examined, highlighting the Spain MDG Fund and the Special Programme for Food Security (PESA) and Regional Rural Development on the EXPIDER I and II project (Rural local development experiences in Latin America), and the PIDERAL project (Innovative policy development project of rural areas in Latin America) and three regionally focused interventions such as: the Latin America and Caribbean without Hunger (HFLACI) Initiative, the Central American Strategy for Rural Development (ECADERT) and the intervention of the Spanish Cooperation to support the ECOWAS Agricultural Policy. Empirical research, essentially with a qualitative approach, is examined and detailed in Chapter VI, reflecting the main conclusions of the investigation in the chapter of the same name, after having contrasted the ideas put forward, and then later compares the practical applications of the thesis and proposes possible new lines of research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis doctoral identifica el reciente fenómeno de la emergenciai de corrientes urbanísticas que actúan en la periferia urbana a partir de una concepción del diseño urbano que propugna modelos más compactos, a escala humana, de carácter integral y sostenible, como alternativa al desarrollo disperso y difusoii que caracteriza en gran medida a la ciudad contemporánea. Se develan las diferencias de origen y las coincidencias entre las distintas líneas de pensamiento que definen a estas emergentes corrientes alternativas, situándolas dentro de determinados enfoques planteados en la presente tesis, y demostrando con ello, las progresivas áreas de convergencia que permiten su ordenamiento como fenómeno histórico común. Estas distintas líneas de pensamiento, que derivan en las corrientes urbanísticas alternativas, se manifiestan primeramente como reacción a las operaciones modernistas de la posguerra, pero crecientemente expresan una visión contestataria a la expansión urbana descontrolada iii, de bajas densidades, zonificación excluyente y dependiente del automóvil; modelo asociado a las autopistas urbanas, los llamados nuevos artefactos urbanos y las grandes parcelas destinadas a proyectos habitacionales. Una realidad expresada en variados contextos en el ámbito de la globalización económica y cultural que, en gran medida, se singulariza como responsable de las profundas transformaciones urbanas, de la consecuente gradual pérdida de habitabilidad en las ciudades y del impacto sobre el medio natural; cuestión a tratar en el “Marco conceptual” referido al contexto y problema de la tesis. Se estudian los planteamientos fundamentales que postulan estas corrientes alternativas en el contexto de la expansión urbana horizontal, con el fin de identificar las distintas vertientes o líneas existentes, de establecer sus orígenes, enfoques, vínculos y alcances, permitiendo con ello caracterizar el fenómeno en sí desde una visión original e integradora. Estas corrientes a tratar han surgido en diversos momentos y con diversas particularidades, pero con mayor intensidad, articulación y visibilidad a partir de los años ochenta y especialmente en los noventa del siglo recién pasado, fundamentalmente en Europa y en los Estados Unidos de América, representando el “Cuerpo teórico” de esta tesis. Emergen en un escenario de creciente empoderamiento ciudadano, en tiempos de una mayor conciencia ambiental y social, y desde la convicción extendida de las limitaciones de un desarrollismo que, en términos del territorio físico, se manifiesta en el crecimiento urbano por extensión, incremental y desarticulado; tienen distintos idearios de origen, algunos en aparente contradicción o manifiesta oposición entre sí; se articulan desde diversos énfasis y surgen a partir de distintas aproximaciones. Para poder comprender el fenómeno de manera integral, se identifican y observan las tendencias contemporáneas y las correspondientes corrientes principales del diseño urbano; se indaga en sus discursos críticos y se ordenan en función de tres enfoques, los cuales reúnen los fundamentos esenciales de las distintas miradas críticas al modelo disperso y difuso: el enfoque neotradicional, el enfoque de la movilidad, y el enfoque ecológicoiv. Reconociendo la importancia de las operaciones de renovación urbana en la “ciudad intramuros” y siendo partícipes de estas intervenciones, las diferentes corrientes observadas desde los tres enfoques planteados, tienen un común denominador disciplinar en cuanto a su preocupación por generar actuaciones urbanas viables y practicables que causen un menor impacto sobre el territorio y que ofrezcan las condiciones para mejorar la habitabilidad en la ciudad, asumiendo el crecimiento hacia las periferias desde una aproximación alternativa a los modelos hoy predominantes. Las distintas corrientes, desde los particulares enfoques señalados, pretenden en síntesis, un desarrollo que refuerce el rol del diseño urbano, que promueva modelos más compactosv, de usos mixtos compatibles con la residencia y con espacios públicos de calidad, a una escala apropiada para la movilidad peatonal, favoreciendo de esta manera el uso del transporte público y velando consecuentemente por aquellos aspectos que mejoren las condiciones de sostenibilidad. En definitiva, el ideario de las corrientes caracterizadas en esta tesis como alternativas, se origina y se sostiene a partir de la convicción de situar a la disciplina del diseño urbano en su justa medida en el desarrollo contemporáneo, en el convencimiento de la relevancia del proyecto urbano en el ordenamiento del territorio y el crecimiento de las ciudades actuales. Una convergencia implícita a tratarse en la “Discusión de resultados”. La preocupación que reflejan las distintas corrientes estudiadas por el hábitat construido, en cuanto a su condición de acoger y estimular la dimensión humana de las ciudades, puede resumirse en una cita del arquitecto danés Jan Gehl, que interpreta a muchas de las líneas de pensamiento que se abordan en esta tesis, en cuanto al deseo de crear mejores ciudades: “Aspiramos generar ciudades animadas, saludables, atractivas, sostenibles y seguras, con el propósito de mejorar la calidad de vida de la gente”. ABSTRACT This Ph.D thesis identifies the recent phenomenon of the emergence of alternative urban design currents in the city edge, that focus on a more compact, human-scale oriented, comprehensive and sustainable urban design as an alternative to the overwhelming advance of sprawl that largely characterizes the contemporary city. It singles out the differences in origin, as well as the similarities drawn from the different lines of thought that define these emergent alternative currents, placing them within certain approaches proposed in this thesis, and thereby demonstrating the progressive areas of convergence that allow to arrange them as a common historical phenomenon. Indeed, the different lines of thought that drift towards these alternative urbanistic currents, first appear as a reaction to the post- World War II Modernist housing projects, and increasingly more so as a response to urban sprawl; an ever expanding phenomemnon expressed in different contexts within the economic and cultural globalization, largely singled out as being responsible for the deep urban transformations, the consequent gradual loss of livability and the impact on natural environment, setting the “Conceptual framework” of this thesis. Within the context of urban sprawl, the fundamental principles of these alternative currents are studied to establish their origins, approaches, linkages and scope, in order to zero in on the various aspects or existing lines and thereby allowing the identification of the phenomenon from an original and inclusive vision. The alternative currents to be dealt with, emerged at different times and with diverse characteristics, nonetheless it is in the eighties and especially during the nineties, mainly in Europe and the United States, where they appear with greater intensity, coordination and visibility, representing the “Theoretical body” of this thesis. The above mentioned currents arise in a scenario of increasing citizen empowerment in times of growing environmental and social awareness, along with the widespread conviction of the limitations of a quantitative development expressed as a physical manifestation in urban sprawl. These alternative currents have a different philosophy in origin, some are in apparent contradiction or in definite opposition, being organized from different approaches and emphases. To comprehend this phenomenon, it is necessary to identify and analize the contemporary trends and the main currents of urban design, inquiring and arranging their critical discourses according to three approaches that meet the essential foundations of the various critical perspectives of urban sprawl: the neo-traditional approach, the mobility approach, the ecological approach. Acknowledging the importance of urban renovation in the “Inner City”, and being partakers of these interventions, the different currents identified from these three approaches, concur in their concern for the development of viable and workable alternatives to urban sprawl; models that cause a lower impact on the territory, whilst improving livability in the city. The different currents recognized within the above mentioned approaches, advocate in brief, for a development that strengthens the role of urban design, that encourages more compact models, mixed-uses, and quality public spaces, considering the human scale and walkability; thereby increasing public transport and promoting consequently, the conditions for sustainable development. Ultimately, the philosophy of the so called alternative currents, is based on the belief of placing urban design as a fundamental discipline in contemporary urban development. The concern for the built habitat reflected by the various currents studied, as of their condition to accept and stimulate the human dimension of the city, can be summed up in a quote from Danish architect Jan Gehl, who represents many of the lines of thought addressed, in the belief of creating better cities: “We aspire to create cities that are lively, healthy, attractive, sustainable and safe-and thereby improve people’s quality of life”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación indaga sobre la relación entre el método geométrico empleado por Pablo Palazuelo y el proceso del proyecto arquitectónico. La elección de este pintor y escultor madrileño como hilo conductor de esta tesis no es fortuita, puesto que la arquitectura desempeña una influencia esencial sobre su obra. Un influjo que le llega en parte a través de su formación académica, dado que cursó estudios de arquitectura en la School of Arts and Crafts de la ciudad de Oxford (1933-1936). Así mismo diseñó propuestas estrechamente vinculadas a un lugar construido, con el consiguiente condicionante de las trazas del mismo. La hipótesis de trabajo formulada a partir de textos elaborados por autores como Víctor Nieto Alcaide y Juan Daniel Fullaondo sugería una interconexión con la arquitectura orgánica. Como comprobación del grado de profundidad en otros análisis publicados, se han seleccionado los textos que indagan en el proceso que el artista desarrollaba durante la producción de su obra, y se adentran en cuestiones estructurales que trascienden el ámbito formal. Siguiendo esta pauta, además de una acotación temporal, se han escogido los realizados por Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power y Carlos Rodríguez-Spiteri. A estos autores se suman las fuentes orales consultadas dentro de un entorno intrínsecamente próximo a sus realizaciones, procedentes de Pere Casanovas y Soledad Lorenzo. Además de personas que en diferentes etapas de su vida coincidieron por distintos motivos con sus realizaciones, como son Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri y Antonio Tornero. A partir del acceso obtenido a los escritos, libros, bocetos y abundante obra gráfica y escultórica que atesora la Fundación del pintor, se ha podido elaborar un andamiaje tanto teórico como geométrico que ha servido de base para confrontar estas premisas. Esta empresa se ha estructurado en una narración que, además de los estudios precedentes citados, comienza con los cimientos del pensamiento de Palazuelo. Elaborada a partir de sus escritos, donde defendía un sincretismo que concilia las visiones de las culturas occidental y oriental. En los siguientes apartados, se han analizado las principales obras gráficas y escultóricas del autor haciendo un especial hincapié en el método productivo. Una gestación que se resiste a una mera enumeración cronológica, por lo que la clasificación que se propone en este trabajo trata de ser lo más fiel posible al espíritu expresado por Palazuelo basado en linajes y coherencias, para desvelar las herramientas empleadas y poder compararlas con el proceso del proyectual. Este recorrido se completa con una última sección se reúnen por primera vez las dieciséis obras y los dieciséis proyectos más representativos que ilustran la aproximación más directa que obró Palazuelo entre sus investigaciones geométricas y un locus determinado. Durante casi cuatro años se desarrolló un inventariado y catalogación pormenorizada de la documentación y piezas sobre papel, lienzo y metal realizadas por Palazuelo. Esta indagación saca a la luz un conjunto constituido por casi cuatro mil obras, en su mayoría inéditas, que constituyen el archivo de la citada institución. En definitiva, esta investigación construye un tejido gráfico y geométrico referido a uno de los artistas españoles más importantes del siglo XX, entreverado por su pensamiento teórico y realizaciones en dibujos, maquetas, esculturas y propuestas arquitectónicas. Las cuales permiten establecer los acuerdos y desacuerdos con el proceso de la arquitectura para proponer una nueva aproximación geométrica interdisciplinar. ABSTRACT This research investigates the relationship between the geometric method used by Palazuelo and the architectural design’s process. Choosing this Spanish painter and sculptor as thread of this thesis is not fortuitous, since the architecture has an essential influence on his work. An influx that arrives in part through his academic training, as he was an architecture student at the School of Arts and Crafts of the city of Oxford (1933-1936). Furthermore his proposals designed closely linked to a built place, therefore conditioned by its traces. The working hypothesis formulated from texts written by authors like Victor Nieto Alcaide and Juan Daniel Fullaondo suggested an interconnection with organic architecture. As a check on the degree of depth in other published reviews, articles that explore the process that the artist developed during the production of his work, and penetrate into structural issues beyond formal domain have been selected. Following this pattern, along with a temporal dimension, assays by Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power and Carlos Rodriguez-Spiteri have been selected. Oral sources within an inherently environment close to his achievements, as Pere Casanovas and Soledad Lorenzo, are also added. In addition to people coincided with his accomplishments, such as Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri and Antonio Tornero. From obtained access to the writings, books, sketches and abundant graphic and sculptural work that holds the Foundation painter, it has been able to develop a theoretical and geometric framework that have served as the basis for confronting these premises. This dissertation has been structured in a narrative that ⎯in addition to the previously mentioned studies⎯, begins with the foundations of Palazuelo thought. A structure built from his writings, where he defended a syncretism that reconciles the views of Western and Eastern cultures. In the following sections, his main graphic and sculptural works have been analyzed with particular emphasis on the productive method. A process that resists mere chronological enumeration, so the classification proposed in this investigation tries to be as faithful as possible to the spirit expressed by Palazuelo, based on bloodlines and coherences, to uncover the tools he used and to compare them with the architectural design process. This tour is completed with a final chapter that gathers the sixteen proposals and sixteen works most representative projects that illustrate the more direct approach that Palazuelo worked between geometric investigations and a given locus. For nearly four years, a detailed inventory and cataloguing of documents and works on paper, canvas and metal made by Palazuelo was developed. This research brings to light a set consisting of nearly four thousand works, mostly unpublished, that constitute the current archive of the aforementioned institution. Ultimately, this research builds a graph and geometric fabric referred to one of the most important Spanish artists of the twentieth century, interspersed by his theoretical thinking and achievements in drawings, models, sculptures and architectural proposals. Which allow establishing agreements and disagreements with the process of architecture to propose a new geometric interdisciplinary approach.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio de una secuencia de procesos basados en la tecnología láser y ejecutados en dispositivos fotovoltaicos, que son imprescindibles para el desarrollo en general de las tecnologías fotovoltaicas basadas en lámina delgada y, en particular, de aquellas que utilizan silicio amorfo como absorbente, así como en aplicaciones posteriores de estas tecnologías de alto valor añadido como es la integración arquitectónica de este tipo de dispositivos. En gran parte de las tecnologías FV de lámina delgada, y muy particularmente en la de silicio amorfo, el material se deposita sobre un substrato en un área lo suficientemente grande para que se requiera de un proceso de subdivisión del dispositivo en células de tamaño adecuado, y su posterior conexión en serie para garantizar las figuras eléctricas nominales del dispositivo. Este proceso se ha desarrollado industrialmente hace años, pero no ha habido un esfuerzo científico asociado que permitiera conocer en profundidad los efectos que los procesos en si mismos tiene de forma individualizada sobre los materiales que componen el dispositivo y sus características finales. Este trabajo, desarrollado durante años en el Centro Láser de la UPM, en estrecha colaboración con Centro de Investigaciones Energéticas y Medioambientales (CIEMAT), la Universidad de Barcelona (UB), y la Universidad Politécnica de Cataluña (UPC), se centra justamente en un estudio detallado de dichos procesos, denominados habitualmente P1, P2, P3 y P4 atendiendo al orden en el que se realizan en el dispositivo. Este estudio incluye tanto la parametrización de los procesos, el análisis del efecto que los mismos producen sobre los materiales que componen el dispositivo y su comportamiento fotoeléctrico final, así como la evaluación del potencial uso de fuentes láser de última generación (ultrarrápidas) frente al estándar industrial en la actualidad que es el empleo de fuentes láser convencionales de ancho temporal en el rango de los nanosegundos. En concreto se ha estudiado en detalle las ventajas y limitaciones del uso de sistemas con diferentes rangos espectrales (IR, VIS y UV) y temporales (nanosegundos y picosegundos) para diferentes tipos de configuraciones y disposiciones tecnológicas (entendiendo por estas las habituales configuraciones en substrato y superestrato de este tipo de dispositivos). La caracterización individual de los procesos fue realizada primeramente en células de laboratorio específicamente diseñadas, abriendo nuevos planteamientos y conceptos originales para la mejora de los procesos láser de interconexión y posibilitando el empleo y desarrollo de técnicas y métodos avanzados de caracterización para el estudio de los procesos de ablación en las distintas láminas que conforman la estructura de los dispositivos fotovoltaicos, por lo que se considera que este trabajo ha propuesto una metodología completamente original, y que se ha demostrado efectiva, en este ámbito. Por último el trabajo aborda un tema de particular interés, como es el posible uso de los procesos desarrollados, no para construir los módulos fotovoltaicos en sí, sino para personalizarlos en forma y efectos visuales para potenciar su uso mediante elementos integrables arquitectónicamente, lo que es un ámbito de gran potencial de desarrollo futuro de las tecnologías fotovoltaicas de lámina delgada. En concreto se presentan estudios de fabricación de dispositivos integrables arquitectónicamente y plenamente funcionales no solo en dispositivos de silicio amorfo con efectos de transparencias y generación de formas libres, si no que también se incluye la posibilidad de hacer tales dispositivos con células de silicio cristalino estándar que es la tecnología fotovoltaica de mayor presencia en mercado. Es importante, además, resaltar que la realización de este trabajo ha sido posible gracias a la financiación obtenida con dos proyectos de investigación aplicada, MICROSIL (PSE-120000-2008-1) e INNDISOL (IPT-420000-2019-6), y los correspondientes al Plan Nacional de I+D+I financiados por el ministerio de Ciencia e Innovación y el Ministerio de Economía y Competitividad: CLÁSICO (ENE 2007- 67742-C04-04) y AMIC ENE2010-21384-C04-02. De hecho, y en el marco de estos proyectos, los resultados de este trabajo han ayudado a conseguir algunos de los hitos más importantes de la tecnología fotovoltaica en nuestro país en los últimos años, como fue en el marco de MICROSIL la fabricación del primer módulo de silicio amorfo con tecnología íntegramente española (hecho en colaboración con el CIEMAT), o la fabricación de los dispositivos para integración arquitectónica con geometrías libres que se describen en esta Tesis y que fueron parte de los desarrollos del proyecto INNDISOL. ABSTRACT This thesis focuses on the study of a sequence of laser-based technology and processes executed in photovoltaic devices, which are essential for the overall development of photovoltaic technologies based on thin film and, in particular, those using amorphous silicon as absorbent and subsequent applications of these technologies with high added value such as the architectural integration of such devices. In much of the PV thin film technologies, and particularly in the amorphous silicon material is deposited on a substrate in an area large enough so that it requires a process of subdivision of the device in cells of appropriate size, and subsequent serial connection to ensure nominal device power figures. This process has been industrially developed years ago, but there has been an associate scientific effort that would learn more about the effects that the processes themselves have either individually on the materials that make up the device and its final characteristics. This work, developed over years in the Laser Center of the UPM, in close collaboration with Centre for Energy and Environmental Research (CIEMAT), the University of Barcelona (UB) and the Polytechnic University of Catalonia (UPC)., Focuses precisely in a detailed study of these processes, usually they called P1, P2, P3 and P4 according to the order in which they perform on the device. This study includes both the parameters of the processes, the analysis of the effect they produce on the materials making up the device and its final photoelectric behavior as well as the potential use of EVALUATION of next-generation laser sources (ultrafast) versus standard industry today is the use of conventional laser sources temporal width in the range of nanoseconds. In particular we have studied in detail the advantages and limitations of using systems with different spectral ranges (IR, UV and VIS) and time (nanosecond and picosecond) for different configurations and technological provisions (meaning these typical configurations in substrate and superstrate such devices). Individual characterization of the processes was conducted primarily in laboratory cells specifically designed, opening new approaches and original concepts for improving laser interconnection processes and enabling the use and development of advanced techniques and characterization methods for studying the processes ablation in the different sheets making up the structure of the photovoltaic devices, so it is considered that this work has proposed a completely original methodology, which has proven effective in this area. Finally, the paper addresses a topic of particular interest, as is the possible use of lso developed processes, not to build the photovoltaic modules themselves but to customize fit and visual effects to enhance their use by integrated architectural elements, which is an area of great potential for future development of thin film photovoltaic technologies. Specifically studies manufacture of integrated architecturally and fully functional not only in amorphous silicon devices with transparency effects and generating freeform devices occur, if not also include the ability to make such devices with cells of standard crystalline silicon photovoltaic technology is more visible in the market. It is also important to note that the completion of this work has been possible thanks to the financing obtained with two applied research projects, Microsil (PSE-120000- 2008-1) and INNDISOL (IPT-420000-2019-6), and those for the National R & D funded by the Ministry of Science and Innovation and the Ministry of Economy and Competitiveness: CLASSIC (ENE 2007-67742-C04-04) and AMIC ENE2010-21384-C04- 02. In fact, within the framework of these projects, the results of this work have helped get some of the most important milestones of photovoltaic technology in our country in recent years, as it was under Microsil making the first module Amorphous silicon technology with entirely Spanish (made in collaboration with CIEMAT), or the manufacture of devices for architectural integration with free geometries that are described in this thesis and that were part of the project Inndisol developments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las masas forestales tienen una importancia colosal para nuestra sociedad y el conjunto de la biosfera. Estudios recientes a escala mundial indican que la sequía es el factor abiótico que más afecta a su crecimiento y supervivencia, seguida por las temperaturas extremas y la salinidad. Aunque comprender los mecanismos con que las especies arbóreas toleran estas formas de estrés tiene un interés aplicado evidente, dichos mecanismos se han estudiado mucho más en especies herbáceas modelo o de interés agronómico. Existen sin embargo diferencias notables entre ellas, como se demuestra en esta tesis y en otros trabajos recientes. Nuestro estudio se centra concretamente en la respuesta molecular del chopo –el sistema modelo forestal más desarrollado– al estrés abiótico, con particular énfasis en la sequía. Utilizando una estrategia proteómica y tratamientos controlados, hemos identificado componentes mayoritarios de dicha respuesta. Su participación en la misma se ha validado mediante análisis transcripcionales detallados utilizando tecnología qRT-PCR (PCR cuantitativa en tiempo real). Hemos identificado proteínas cuyo nexo funcional con mecanismos de tolerancia ya era conocido, como chaperonas moleculares sHSP o enzimas que atenúan el estrés oxidativo, pero también proteínas cuya relación funcional con el estrés es menos clara o incluso novedosa, como polifenol oxidasas (PPO), deshidrogenasas/reductasas de cadena corta (SDR), o bicupinas (BIC), entre otras. El cuerpo central de la tesis consiste en la caracterización detallada de una PPO inusual, cuya inducción por estrés hídrico se describe por vez primera. Estas enzimas están ampliamente distribuidas en plantas, si bien su número es muy variable de unas especies a otras. Algunas, como nogal, tienen un único gen, mientras que Arabidopsis no tiene ninguno. En la última versión del genoma de chopo hemos identificado un total de 12 miembros bona fide, corrigiendo trabajos previos, y hemos caracterizado su expresión individual ante diferentes situaciones de estrés controlado y tratamientos hormonales. La isoforma antedicha es el único miembro de la familia que responde claramente a la deshidratación. También responde a salinidad y a la mayor parte de tratamientos hormonales ensayados, pero no a daño mecánico o tratamientos con metil jasmonato. Esto la diferencia de enzimas homólogas presentes en otras especies de plantas, que se han relacionado experimentalmente con estrés biótico. Los patrones de acumulación de transcritos en árboles adultos son compatibles con un papel protector frente a la sequía. La integración de nuestros estudios funcionales y filogenéticos sugiere que la familia ha sufrido un proceso reciente de diversificación y neofuncionalización, siendo la protección frente a deshidratación su papel primigenio. Aunque se conoce la actividad bioquímica in vitro de este tipo de enzimas, sus sustratos naturales son esencialmente una incógnita. Mediante expresión heteróloga en Escherichia coli BL21(DE3) hemos detectado que la enzima de chopo es capaz de oxidar L-DOPA a dopaquinona, siendo menos activa frente a otros sustratos. Por otra parte, hemos demostrado su localización cloroplástica mediante transformación transitoria de protoplastos con fusiones a la proteína fluorescente YFP. Mediante la obtención de plantas transgénicas de A. thaliana hemos demostrado que la enzima de chopo aumenta considerablemente la tolerancia in vivo frente a la deshidratación y al estrés salino. El análisis fenotípico detallado de las líneas transgénicas, combinando múltiples metodologías, nos ha permitido sustanciar que la tolerancia tiene una base compleja. Esta incluye una mayor protección del sistema fotosintético, una capacidad antioxidante muy incrementada y la acumulación de solutos osmoprotectores como la prolina. Los análisis metabolómicos nos han permitido asociar la expresión de la proteína a la síntesis de un flavano no descrito previamente en A. thaliana, vinculando la enzima de chopo con la síntesis de fenilpropanoides. También hemos observado alteraciones en los niveles hormonales que podrían subyacer a efectos pleiotrópicos con interés aplicado, como un aumento consistente del tamaño de la planta o el acortamiento del ciclo de crecimiento. Además de aportar datos novedosos sobre la funcionalidad in vivo de esta familia de oxidasas, los resultados de esta tesis demuestran que los árboles son sistemas de estudio interesantes para caracterizar nuevas estrategias de tolerancia al estrés abiótico con potencial aplicado. ABSTRACT Forests masses have an extraordinary importance for our society and the biosphere. Recent worldwide studies indicate that drought is the abiotic factor that affects more their growing and survival, followed by extreme temperatures and salinity. The understanding of how the arboreal species tolerate the stress has an evident practical interest, but their mechanisms have been studied much more in herbaceous species or with agronomic interest. However, considerable differences exist between them, as this thesis and recent studies show. Our study is focused on the molecular response of the poplar –the more developed forestry model system- to abiotic stress, specifically focused in the drought. Using a proteomic strategy and controlled treatments, we have identified main components in such response. Its participation has been validated through transcriptional analysis using qRT-PCR technology. We have identified proteins whose functional connection with tolerance mechanisms were already known, as molecular chaperones sHSP or enzymes that attenuate the oxidative stress, but also some proteins whose functional relationship with the stress is less clear or even novel, as polifenol oxidases (PPO), short chain deshidrogenases/reductases (SDR), or bicupines (BIC), among others. The central body of the thesis consists of the detailed characterization of an unsual PPO, whose induction due to drought stress is first described. These enzymes are thoroughly distributed in plants, but their number of members is very variable among species. Some of them, as the walnut tree, have a single gene, while Arabidopsis has none. We have identified a total of 12 members in the last version of the poplar genome, correcting previous works, and have characterized their individual expression against different situations of controlled stress and hormone treatments. The aforementioned isoform is the only member of the family that responds clearly to the drought. It also reacts to salinity and the majority of hormonal treatments tested, but it does not respond to mechanical damage or treatments with methyl jasmonate. This is the difference with homologue enzymes present in other plant species, which have been related experimentally with abiotic stress. The accumulation patterns of transcripts in adult trees are compatible with a protector role against drought. The integration of our functional and phylogenetic studies suggests that the family has suffered a recent process of diversification and neofunctionalization, being the protection against drought their original role. Although the in vitro biochemistry activity of this kind of enzymes is already known, their natural substracts are essentially a mystery. By means of heterologous expression of Escherichia coli BL21(DE3) we have detected that the enzyme of poplar is able to oxidize L-DOPA to dopaquinone, being less active against other substrates. Additionally, we have proven its chloroplastic location with transitory transformation of protoplasts with YFP protein fusion. By means of getting transgenic plants of A. thaliana, we have demonstrated that the poplar enzyme increases notably the in vivo tolerance against the drought and salinity stresses. The phenotypic analysis of the transgenic lines, and the use of multiple methodologies, allowed us to test the complexity of the tolerance. This includes a major protection of the photosynthetic system, a very increased antioxidant capacity and the accumulation of osmoprotectant solutes as the proline. The metabolic analysis has allowed to associate the protein expression with the synthesis of a Flavan non described previously in A. thalaiana, linking the enzyme of poplar with the synthesis of phenylpropanoids. We have observed alterations in the hormonal levels that could underlie pleiotropic effects with applied interest, as a consistent increase of the size of the plant and the reduction of the growth cycle. The results of this thesis, in addition to provide novel data about the in vivo functionality of the oxidase family, demonstrate that the trees are interesting systems of study to characterize new strategies of tolerance against abiotic stress with applied potential.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta investigación consiste en definir un modelo de reserva de capacidad, por analogías con emergencias hospitalarias, que pueda ser implementado en el sector de servicios. Este está específicamente enfocado a su aplicación en talleres de servicio de automóviles. Nuestra investigación incorpora la incertidumbre de la demanda en un modelo singular diseñado en etapas que agrupa técnicas ARIMA, teoría de colas y simulación Monte Carlo para definir los conceptos de capacidad y ocupación de servicio, que serán utilizados para minimizar el coste implícito de la reserva capacidad necesaria para atender a clientes que carecen de cita previa. Habitualmente, las compañías automovilísticas estiman la capacidad de sus instalaciones de servicio empíricamente, pero los clientes pueden llegar bajo condiciones de incertidumbre que no se tienen en cuenta en dichas estimaciones, por lo que existe una diferencia entre lo que el cliente realmente demanda y la capacidad que ofrece el servicio. Nuestro enfoque define una metodología válida para el sector automovilístico que cubre la ausencia genérica de investigaciones recientes y la habitual falta de aplicación de técnicas estadísticas en el sector. La equivalencia con la gestión de urgencias hospitalarias se ha validado a lo largo de la investigación en la se definen nuevos indicadores de proceso (KPIs) Tal y como hacen los hospitales, aplicamos modelos estocásticos para dimensionar las instalaciones de servicio de acuerdo con la distribución demográfica del área de influencia. El modelo final propuesto integra la predicción del coste implícito en la reserva de capacidad para atender la demanda no prevista. Asimismo, se ha desarrollado un código en Matlab que puede integrarse como un módulo adicional a los sistemas de información (DMS) que se usan actualmente en el sector, con el fin de emplear los nuevos indicadores de proceso definidos en el modelo. Los resultados principales del modelo son nuevos indicadores de servicio, tales como la capacidad, ocupación y coste de reserva de capacidad, que nunca antes han sido objeto de estudio en la industria automovilística, y que están orientados a gestionar la operativa del servicio. ABSTRACT Our aim is to define a Capacity Reserve model to be implemented in the service sector by hospital's emergency room (ER) analogies, with a practical approach to passenger car services. A stochastic model has been implemented using R and a Monte Carlo simulation code written in Matlab and has proved a very useful tool for optimal decision making under uncertainty. The research integrates demand uncertainty in a unique model which is built in stages by implementing ARIMA forecasting, Queuing Theory and a Monte Carlo simulation to define the concepts of service capacity and occupancy, minimizing the implicit cost of the capacity that must be reserved to service unexpected customers. Usually, passenger car companies estimate their service facilities capacity using empirical methods, but customers arrive under uncertain conditions not included in the estimations. Thus, there is a gap between customer’s real demand and the dealer’s capacity. This research sets a valid methodology for the passenger car industry to cover the generic absence of recent researches and the generic lack of statistical techniques implementation. The hospital’s emergency room (ER) equalization has been confirmed to be valid for the passenger car industry and new process indicators have been defined to support the study. As hospitals do, we aim to apply stochastic models to dimension installations according to the demographic distribution of the area to be serviced. The proposed model integrates the prediction of the cost implicit in the reserve capacity to serve unexpected demand. The Matlab code could be implemented as part of the existing information technology systems (ITs) to support the existing service management tools, creating a set of new process indicators. Main model outputs are new indicators, such us Capacity, Occupancy and Cost of Capacity Reserve, never studied in the passenger car service industry before, and intended to manage the service operation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesis muestra una visión en conjunto de la evolución de la cartografía geológica en España desde sus orígenes hasta el año 1864, cuando aparecieron, de forma simultánea, los dos mapas geológicos completos de España. El estudio se divide en doce capítulos. El primero es una introducción, con los objetivos y metodología del trabajo, así como en los antecedentes de estos trabajos. El segundo capítulo aborda la representación temprana del paisaje y de los elementos geológicos, desde las piedras grabadas de Abauntz, de hace 13.000 años, que se han interpretado como un mapa geomorfológico y de recursos naturales o el mapa con el volcán Çatalhöyuc en Turquía de 6.600 a.C., hasta las primeras representaciones cartográficas que surgieron con el desarrollo de las primigenias sociedades urbanas. El Papiro de Turín es un mapa del 1.150 a.C. con contenido geológico real que muestra con precisión la distribución geográfica de los distintos tipos de roca en la que se incluye información sobre minería. El tercer capítulo trata sobre cómo se establecieron las bases para la representación científica de la superficie terrestre en el Mundo clásico. Se hace un somero repaso a como se desarrollaron sus concepciones filosóficas sobre la naturaleza y de la cartografía en la Antigua Grecia y el Imperio Romano. En el cuarto capítulo se sintetiza la evolución de los conceptos cartográficos en el mundo medieval, desde las interpretaciones teológicas del mundo en los mapamundis en O-T de Las Etimologías del siglo VIII, o los Beatos, al nacimiento de una representación cartográfica verdaderamente científica en los siglos XIII y XIV, como son los portulanos, destacando el especial interés de la "Escuela Mallorquina". En el quinto capítulo se estudia el Renacimiento y la Edad Moderna, incidiendo en la importancia de la cartografía en los viajes de los descubrimientos, que marcan el mayor avance conceptual en la comprensión de la Tierra. La carta de Juan de la Cosa (1500) es la primera representación de América y además es el primer exponente de la cartografía producida por la Casa de la Contratación de Sevilla. Se presta especial atención a la representación de fenómenos volcánicos, con el ejemplo de las observaciones geológicas que realizó Gonzalo Fernández de Oviedo (1478-1557), en las que se encuentran varios croquis sobre los volcanes de Nicaragua. Finalmente, se estudian las representaciones del subsuelo en la minería, que en esa época inauguraron un nuevo lenguaje pictórico, y las técnicas y saberes mineros en el ámbito hispanoamericano. El capítulo sexto es muy amplio, estudia el contexto científico internacional donde nacieron los primeros mapas geológicos, desde los primeros cortes geológicos realizados a principios del siglo XVIII, hasta el primer mapa geológico del mundo de Amí Boué (1843). En este estudio se estudian también los distintos avances científicos que se fueron produciendo y que permitieron que se levantaran los mapas geológicos. Se analiza la importancia del desarrollo de la cartografía topográfica, que permitió que se pudieran representar distintos elementos geológicos sobre ellos, dando lugar a los primeros mapas temáticos, como por ejemplo, el mapa de los recursos mineros del obispado de Salzburgo (1716). Se dedica un amplio capítulo a la influencia de la Academia de Minas de Freiberg, dónde Abraham G. Werner (1749-1817) impartía clases. Werner sistematizó los materiales geológicos que componen el edificio terrestre dividiéndolo en grandes unidades, de este modo se sentaron las bases que propiciaron la representación cartográfica. A partir de este momento se levantaron un buen número de mapas geognósticos. A principios del siglo XIX, las teorías de Werner empezaron a perder aceptación internacional, incluso entre sus discípulos, como Leopold von Buch (1774-1853) que desarrolló una teoría sobre el levantamiento de las montañas a partir del empuje causado por intrusiones ígneas. Desde la historiografía de la cartografía geológica, se considera un hito la aparición del mapa geológico de Inglaterra, Gales y Escocia, Smith (1815), sin embargo, desde el punto de vista conceptual, el mapa de Cuvier y Brogniart (1808) representa un verdadero mapa geológico con un claro relato histórico. Después se repasan las distintas ideas sobre los mecanismos orogénicos, en especial las de Élie de Beaumont, que ejercieron una gran influencia entre los geólogos de nuestro país. A continuación se trata la figura de Lyell y el desarrollo del actualismo. Finalmente se analiza el primer mapa geológico del mundo, obra de Boué (1843). El capítulo séptimo trata sobre las primeras representaciones gráficas de la Geología española que tuvieron lugar en la época del Reformismo Borbónico. Se empieza con un repaso al estado de la Geología en España en esa época a la que sigue un estudio de los principales hitos en la representación cartográfica con indicaciones geológicas. De este modo se analizan los escasos planos mineros realizados en América que representen los filones, los cortes mineros de Guadalcanal y Cazalla de Hoppensack, (1796) y la utilización de la cartografía en la remediación de los desastres naturales. Los cortes geológicos de Teruel al Collado de la Plata, Herrgen y Thalacker (1800), suponen la primera descripción moderna de un terreno que se realizó en España. A continuación, se menciona la importancia de las cartografías geognósticas, financiadas por la Corona española, realizadas en los Alpes por Carlos de Gimbernat a principios del siglo XIX. Por último, se estudian los caracteres geológicos de los planos para la investigación del carbón en Mallorca, de Taverns (1811). El capítulo octavo constituye el núcleo principal de la presente tesis, y se ha titulado la Época Histórica de la Geología española, en el que se estudian el desarrollo de la cartografía geológica en nuestro país, en el periodo comprendido entre la promulgación de la Ley de Minas de 1825, hasta la constitución de la Carta Geológica de Madrid y General del Reino, en 1849. Se hace primero un repaso a las circunstancias políticas del país, a continuación se sintetiza el estado de la Geología en España en dicho periodo, las instituciones, y las publicaciones. Después se estudia la contribución de los autores extranjeros al conocimiento de la Geología en España, como Charpentier, que en su mapa de los Pirineos está cartografiando parte del territorio español, o Leopold von Buch, Lyell, Silvertop, Cook, Haussmann, entre otros. A continuación se estudia ya la cartografía de distintas cuencas mineras o regiones de España. Se analizan los mapas por separado, estudiando las memorias que las acompañan y la biografía de sus autores. Se empieza por las tempranas contribuciones con estudios de las cuencas carboníferas en los que ya se encuentran cortes geológicos formales. Se incide con mucho mayor detalle en el análisis de las tres cartografías geológicas que aparecieron simultáneamente hacia 1834: las de La Mármora en Baleares, de Le Play en Extremadura y de Schulz en Galicia, tres productos muy distintos, pero que fueron los pilares fundantes de esta disciplina en España. Por una parte, la primera tiene un interés exclusivamente científico, mientras que las otras dos, se enmarcan en un proyecto de cartografía geológica nacional, de un carácter más aplicado. A continuación se aborda el estudio del conjunto de cartografías que van apareciendo sobre la Geología de España, empezando por la de Naranjo (1841) en Burgos, de Collette (1848) en Vizcaya, de Prado (1848) en el Noreste de León; Rodríguez (1849) en Teruel y de Luxan (1850) en el Suroeste de España. La última parte del capítulo analiza dos cartografías (todavía parciales) del conjunto del país, que aparecieron en Alemania hacia 1850: la de Ezquerra (1851) y la de Willkomm (1852). El capítulo noveno trata sobre la institucionalización de la cartografía geológica en España, que se inicia con la fundación de una comisión, en 1849, para levantar el mapa geológico del Reino. Durante este periodo, de todas formas, la Comisión sufrió diversos avatares, aunque, en resumen se puede considerar que se produjeron tres proyectos de cartografía: el primero es la serie de cartografías geológicas provinciales a escala 1:400.000, que se iniciaron con la de Madrid; el segundo son los estudios de cuencas carboníferas, gracias a los cuales se levantaron mapas geológicos en Sant Joan de les Abadeses, Maestre, (1855) y el Norte de la provincia de Palencia, Prado (1861), el tercero y último es el mapa geológico general de España, Maestre (1865). De todas formas, en este periodo también aparecieron cartografías geológicas realizadas por la Dirección General de Minas. El hito cartográfico final de esta tesis es doble, entre 1864 y 1865, se publicaron, por fin, dos mapas geológico completos de España: el de Verneuil y Collomb (1864) y el de Maestre (1865). Finalmente, en el décimo y último capítulo se analizan en conjunto todas las producciones cartográficas que se han ido estudiando a lo largo del trabajo y se exponen, a modo de conclusiones, las principales aportaciones de esta Tesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral desarrolla una investigación original sobre las torres defensivas de Menorca y las torres Martello de las costas sur y este de Inglaterra. Con respecto a las torres menorquinas, se distinguen las de Alcaufar y Punta Prima, construidas por ingenieros militares españoles, en 1786; de las levantadas por el ejército británico durante su último periodo de dominación de la isla, entre 1798 y 1802. Estos ingenieros reales británicos construyen las torres Martello en las costas inglesas, entre 1805 y 1812; y otras, semejantes a ellas, en el resto de su Imperio, hasta mediados del siglo XIX. La falta de estudios que relacionen las torres defensivas de Menorca y las Martello inglesas dentro del marco disciplinario de la construcción, ha constituido la justificación de esta investigación. La hipótesis de trabajo plantea un objetivo principal: el estudio y análisis comparativo entre ellas, que se desarrolla en varios niveles de análisis: morfológico, físico-constructivo, de visibilidades; pero también territorial, histórico y poliorcético. Esta tesis cuestiona, en consecuencia, la idea tradicionalmente aceptada de que las torres Martello tomaran la torre de Mortella, en Córcega, o cualquiera de las denominadas torres "preMartello", como referencia para crear su prototipo. La metodología empleada combina los trabajos de gabinete con una intensa labor de campo, en la que se documentaron cincuenta y siete torres, catorce en Menorca y cuarenta y tres en Inglaterra. Se han redactado sus correspondientes fichas de datos, que incluyen aspectos generales - morfológicos y constructivos -, así como documentación fotográfica. Se han elaborado los levantamientos morfológicos de siete de estas torres, aquellas que por sus particularidades constructivas, o bien representan un determinado tipo de torre, o bien se distinguen del resto. Del mismo modo, se han desarrollado los levantamientos físico-constructivos y la caracterización de materiales de las cuatro torres más relevantes para este estudio: las menorquinas Alcaufar y Punta Prima, y las torres 24 y C, que ejemplifican, respectivamente, las levantadas en las costas sur y este de Inglaterra. El sistemático método de trabajo llevado a cabo ha favorecido la investigación y ha ayudado a obtener conclusiones que verifican la hipótesis planteada en la tesis y cumplen los objetivos establecidos al comienzo de la misma. ABSTRACT This doctoral thesis develops an original research on the defensive towers of Minorca, and the Martello towers on the south and east coasts of England. Regarding the Minorcan towers, Alcaufar and Punta Prima, built by the Spanish military engineers in 1786, must be distinguished from those erected by the British Army during its last period of domination of the island between 1798 and 1802. These Royal Engineers build the Martello towers on the English coasts between 1805 and 1812; and others, similar to them, in the rest of their Empire until the middle of the 19th century. The lack of studies linking these Minorcan and English towers, within the disciplinary framework of construction, has been the justification for this research. The hypothesis poses a main goal: the study and comparative analysis of them, which takes place at several levels of analysis: morphological, constructive, of visibilities; but also territorial, historical and poliorcetic. Consequently, this thesis questions the traditionally accepted notion that the Martello towers took the Corsican Mortella Tower, or any of the so-called “preMartello” towers as a reference to create their prototype. The methodology combines the cabinet works with significant fieldwork, in which fifty seven towers were documented, fourteen in Minorca and forty three in England. The corresponding data sheets were drafted including general aspects - morphological and constructive-, and photographic documentation. Morphological survey plans were developed for seven of these towers due to their construction peculiarities, which either denote a specific type of tower or makes it stand out from the rest. Likewise, constructive survey plans and material characterisation sheets of the four more relevant towers in this study were developed: the Minorcan Alcaufar and Punta Prima, and towers 24 and C, both respectively exemplifying those built on the south and east coasts of England. The systematic method of work encouraged the research and helped to draw conclusions that both confirm the hypothesis raised in the thesis and meet the objectives established at the beginning of it.