849 resultados para Obesidad-Diagnóstico-Investigaciones-Tesis y disertaciones académicas


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se inscribe en el campo de la tecnología, o ciencia aplicada, lo que significa que se elabora con la voluntad de que sus hallazgos puedan ser utilizados para acometer los desafíos con que se enfrenta el paisaje en cuanto recurso, testimonio histórico-cultural y factor ambiental, de importancia creciente para la calidad de vida de los ciudadanos. Se estructura en seis capítulos: El primero describe los objetivos, metodología y los medios utilizados en su elaboración; el segundo se refiere al estado actual de la cuestión que se investiga; el tercero y el cuarto constituyen el centro de la tesis, y presentan el modelo conceptual de paisaje y EL modelo metodológico que se proponen para alcanzar el objetivo de la Tesis; el quinto sintetiza la verificación realizada para dichos modelos; y el sexto contiene las conclusiones. Para definir los objetivos, la tesis considera que el paisaje se comporta como un recurso socioeconómico capaz de generar riqueza y empleo, y que, a pesar de la preocupación legal por su conservación, se encuentra sometido a graves procesos de deterioro; por todo ello ha pasado de ser un tema menor en el territorio, a constituir un elemento de interés primordial. Pero el carácter de percepción subjetiva del paisaje supone una gran dificultad para tratarlo técnicamente en los procesos de toma de decisiones que conducen el desarrollo. Y es precisamente el objetivo de esta tesis resolver esa dificultad, mediante el desarrollo una metodología y de unas técnicas que permitan integrar este recurso en la formulación de políticas, planes, proyectos e instrumentos de gestión. La metodología utilizada en la investigación, ha sido una aplicación del método inducción-deducción, según el cual a partir de la observación de hechos particulares se hacen generalizaciones que luego se aplican a otros hechos particulares, y ello, en ciclos sucesivos, va dotando de solvencia y de solidez a las generalizaciones. Respecto al estado de la cuestión, dada la enorme cantidad de antecedentes sobre el paisaje, el doctorando se ha centrado fundamentalmente en los últimos años, por ser en este tiempo cuando se ha conformado la preocupación y el concepto actual de paisaje, el cual asume que, hermoso o feo, todo el territorio es paisaje, y por tanto el objetivo no debe ser protegerlo, sino planificarlo para gestionarlo. En el tercer capítulo se expone el modelo de paisaje que se propone, para lo que se parte de la siguiente definición de paisaje: Percepción polisensorial y subjetiva de la expresión externa en que se manifiesta el sistema territorial, según la cual el Paisaje implica tanto a lo percibido como a quien lo percibe: debe existir un perceptor para que el paisaje se revele y manifieste. Esto da lugar a un modelo de paisaje organizado en dos grandes componentes: una objetiva, la imagen que proyecta un sistema real (el territorial), determinante del "carácter" del paisaje, a lo que se denomina en esta tesis Base Paisajística, y otra subjetiva, que no es más que la percepción de los observadores, cada uno de los cuales se hace su propia composición del paisaje. En el cuarto capítulo, a partir del modelo de paisaje definido, y teniendo en cuenta el objetivo central de la tesis, se presenta una propuesta metodológica para analizar, diagnosticar y planificar el paisaje. La metodología propuesta se estructura en tres niveles, que se desarrollan consecutivamente: en una primera fase se analizan lo que se ha denominado elementos primarios del paisaje, en una segunda fase se desarrollan los elementos elaborados para el diagnóstico, y en una tercera fase se concretan los elementos de percepción para la decisión, que suponen un último nivel de elaboración que permite insertar el paisaje fácilmente en el instrumento que se elabora. El quinto capítulo se destina a verificar o contrastar el comportamiento y la validez del modelo y la metodología diseñados. Así el modelo ha sido refrendado por la comunidad científica, técnica y la sociedad en general, que ha intervenido en los casos que han servido de base a la tesis, tanto en su elaboración, como en su validación a través de procesos de participación pública. Además los casos que se exponen en este capítulo permiten apreciar cómo el modelo se ha ido desarrollando y mejorando a lo largo de varios años, y cómo es suficientemente flexible para poder aplicarse, con los lógicos ajustes derivados de los objetivos específicos, y de la escala, de cada caso concreto, a la extensa casuística que se plantea en la vida profesional. En el sexto y último capítulo, se incluyen una serie de conclusiones que se han ido extrayendo a lo largo del proceso de elaboración de la tesis, y se identifican aquellos campos de investigación que tal proceso ha abierto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ruido del tráfico rodado supone aproximadamente la mitad del ruido global ambiental. Las técnicas de control de ruido habitual en emisión (límites de emisión de vehículos) e inmisión (barreras acústicas, doble acristalamiento) no han sido suficientes para disminuir significativamente las molestias por el tráfico rodado en las últimas tres décadas. El efecto positivo de estas técnicas de control ha sido contrarrestado por el aumento de la densidad del tráfico. Por otra parte, la molestia del ruido del tráfico está altamente correlacionada con los niveles máximos de ruido (MNL), producidos por lo general por conductores agresivos. Sin embargo, los sistemas actuales de medición de ruido de tráfico se basan en una valoración global, por lo que no son capaces de discriminar entre los conductores silenciosos y ruidosos. Por lo tanto, en esta tesis se propone un sistema de medida de ruido en el campo cercano, que es capaz de medir la contribución de cada vehículo individual al ruido del tráfico rodado, permitiendo la detección de los conductores ruidosos. Este trabajo describe también una combinación de investigaciones analíticas y experimentales para la identificación de los conductores responsables de la generación de niveles máximos de ruido. El sistema se basa en dos micrófonos embarcados, uno para el ruido del motor y otro para el ruido de rodadura. Con el fin de relacionar estas mediciones de campo cercano con el ruido de los vehículos radiado al campo lejano, se desarrolla un procedimiento completo para la extrapolación del ruido medido por los micrófonos de campo próximo a las posiciones de campo lejano, usando una combinación de predicción analítica y mediciones experimentales. Las correcciones para los niveles extrapolados se deben a factores atmosféricos, al término de divergencia esférica y a las condiciones de absorción de la superficie de propagación. Para el micrófono situado próximo al motor, es necesario también caracterizar las propiedades acústicas del capó del motor. Ambos niveles de ruido se extrapolan de forma independiente a la posición de campo lejano, donde se realiza una comparación entre la predicción y mediciones para confirmar que la metodología es fiable para estimar el impacto a distancia del ruido de tráfico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El terremoto ocurrido el 12 de enero de 2010 en Haití devastó la ciudad de Puerto Príncipe, interrumpiendo la actividad social y económica. El proyecto Sismo-Haití surgió como respuesta a la solicitud de ayuda del país ante esta catástrofe y está siendo llevado a cabo por el grupo de investigación en Ingeniería Sísmica de la Universidad Politécnica de Madrid, especialistas en geología y sismología de las universidades Complutense de Madrid, Almería y Alicante, el Consejo Superior de investigaciones Científicas y técnicos locales Haitianos. En el marco del citado proyecto se realizará un estudio de la amenaza sísmica, con la consiguiente obtención de mapas de aceleraciones que sirvan de base para una primera normativa sismorresistente en el país. Asimismo, se llevará a cabo un estudio de riesgo sísmico en alguna población piloto, incluyendo estudios de microzonación y vulnerabilidad sísmica, así como la estimación de daños y pérdidas humanas ante posibles sismos futuros, cuyos resultados irán dirigidos al diseño de planes de emergencia. En este trabajo se presentan los primeros avances del proyecto. Uno de los objetivos más importantes del proyecto Sismo-Haití es la formación de técnicos en el país a través de la transmisión de conocimientos y experiencia que el grupo de trabajo tiene en materia de peligrosidad y riesgo sísmico, así como en todo lo relacionado con la gestión de la emergencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto fin de carrera trata del sistema de grabación y reproducción sonora ambiofónico, destacar que este sistema y la tecnología que emplea es de dominio público. La ambiofonía se basa en un amalgama de investigaciones recientes y de los ya bien sabidos principios psicoacústicos y binaurales. Estos avances han expandido nuevas fronteras en lo concerniente a la grabación y reproducción de audio, así como de presentar al oyente un campo sonoro a la entrada de sus oídos lo más parecido posible al campo sonoro al que se expondría al oyente en el momento y lugar de la toma de sonido, es decir, reconstruye un campo sonora binaural. Este sistema ha podido desarrollarse, de una manera bastante satisfactoria, gracias a todos los estudios y textos anteriores en materia de psicoacústica y del mecanismo de escucha humano. Otro factor gracias al cual es posible y asequible, tanto el desarrollo como el disfrute de esta tecnología, es el hecho que en nuestros días es muy económico disponer de ordenadores lo suficientemente potentes y rápidos para realizar el procesado de señales que se requiere de una manera bastante rápida. Los desarrolladores de dicha tecnología han publicado diversos documentos y archivos descargables de la red con aplicaciones para la implementación de sistemas ambiofónicos de manera gratuita para uso privado. El sistema ambiofónico se basa en la combinación de factores psicoacústicos ignorados o subestimados y lo ya sabido sobre las propiedades acústicas de salas, tanto de salas en las que tienen lugar las ejecuciones musicales (auditorios, teatros, salas de conciertos...), como de salas de escucha (salones de domicilios, controles de estudios...). En la parte práctica del proyecto se van a realizar una serie de grabaciones musicales empleando tanto técnicas estereofónicas tradicionales como ambiofónicas de grabación con el fin de describir y comparar ambas técnicas microfónicas. También servirá para estudiar hasta que punto es favorable subjetivamente para el oyente el hecho de realizar la toma de sonido teniendo en cuenta las propiedades del sistema de reproducción ambiofónico. Esta comparación nos dará una idea de hasta donde se puede llegar, en cuanto a sensación de realidad para el oyente, al tener en cuenta durante el proceso de grabación efectos como la respuesta del pabellón auditivo del oyente, la cual es única, y que posteriormente la diafonía interaural va a ser cancelada mediante un procesado digital de señal. ABSTRACT. This final project is about the ambiophonic recording and playback system, note that this system and the technology it uses is of public domain. Ambiophonics is based on an amalgam of recent research and to the well known and binaural psychoacoustic principles. These advances have expanded new frontiers with regard to the audio recording and playback, as well as to present the listener a sound field at the entrance of their ears as close as possible to the sound field that would the listener be exposed to at the time and place of the mucial interpretation, so we can say that ambiophonics reconstructs a binaural sound field . This system has been developed, in a fairly satisfactory way, thanks to all the studies and previous texts on psychoacoustics and human listening mechanism. Another factor by which it is possible and affordable, both the development and the enjoyment of this technology, is the fact that in our days is inexpensive to usres to own computers that are powerful and fast enough to perform the signal processing that is required in a short time. The developers of this technology have published several documents and downloadable files on the network with applications for ambiophonics system implementation for free. Ambiophonics is based on a combination of factors ignored or underestimated psychoacousticly and what is already known about the acoustic properties of rooms, including rooms where musical performances take place (auditoriums, theaters, concert halls...), and listening rooms (concet halls, studios controls...). In the practical part of the project will be making a series of musical recordings using both traditional stereo recording techniques and recording techiniques compatible with ambiophonics in order to describe and compare both recording techniques. It will also examine to what extent is subjectively favorable for the listener the fact of considering the playback system properties of ambiophonics during the recording stage. This comparison will give us an idea of how far can we get, in terms of sense of reality to the listener, keeping in mind during the recording process the effects introduced by the response of the ear of the listener, which is unique, and that the subsequently interaural crosstalk will be canceled by a digital signal processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis destaca la influencia que ejerció la teoría, las técnicas y la metodología de proyecto de los principales tratados de la época renacentista en la concepción, diseño y realización de algunos de los más importantes jardines de la época. Los tratados de Vitruvio, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio establecen una nueva estética y una nueva visión del mundo, basadas en la geometría elemental y en los números simples. En la Grecia antigua, Platón y Pitágoras intuyeron la necesidad existencial del hombre de apoyarse en unas leyes seguras de orden superior. Sus teorías sobre las leyes del Universo son retomadas y aplicadas en el arte y en el jardín por Vitruvio y por los tratadistas del Renacimiento. Según los tratadistas, la estética es el núcleo generador del que se activan la información y las leyes hacia todos los campos del conocimiento y de la vida social y, por lo tanto, la finalidad de los tratados es buscar, a través de un procedimiento científico y racional, las reglas de la belleza. Las leyes estéticas formuladas por los tratadistas examinados se aplican con el mismo rigor y respeto ya sea al paisaje que al jardín, exaltando el elemento natural al igual que el construido (la ciudad y la arquitectura). De los tratados renacentistas se han extraídos términos y conceptos que ayudan a revalorizar, reinterpretar e integrar en el debate los temas del paisaje y del jardín. La tesis sostiene que: 1) una idea moderna de jardín se tiene que fundar en la historia; 2) que la historia es indispensable incluso para enfrentar el problema del mantenimiento y de la restauración de los jardines históricos; 3) que la teoría y las ideas que tienen valor, así como nos enseña Alberti, producen obras que también tienen valor; 4) la influencia de la estética de los tratadistas se encuentra incluso en algunos importantes jardines de época moderna y contemporánea. El capítulo 1 contiene la definición de tratado y la concepción estética del Renacimiento, analizada por medio de: a) la idea de ciencia y b) a través de las pinturas. Los capítulos 2 y 3 contienen respectivamente los principios teóricos de los tratados y el diseño, la metodología, las técnicas constructivas y los métodos de representación del proyecto según los tratadistas. Estos capítulos resultan propedéuticos de los capítulos siguientes por proporcionar el instrumento de lectura e interpretación de los jardines renacentistas y modernos. El capítulo 4 destaca la gran influencia de los tratados sobre las villas y jardines renacentistas y describe sus elementos. El último capítulo, el quinto, contiene un análisis de algunos jardines modernos. Entre ellos: Chiswick, la Villa “I Tatti”, Sutton Place, y la Villa “Il Roseto” que renuevan y prosiguen, en nuestra opinión, la lección de los tratadistas. El primer anexo contiene la propuesta de líneas de investigación que surgen a la luz de la tesis, y el segundo anexo contiene las noticias biográficas de los tratadistas examinados. ABSTRACT The thesis investigates the influence exercised by the theory, techniques and project methodology contained in the most relevant essays on art and architecture of the Renaissance on the concept, design and making of some of the most important gardens of that time. The essays of Vitruvius, Alberti, Filarete, Di Giorgio, Serlio, Palladio, Colonna y Del Riccio established a new concept of aesthetics and a vision of the world based on basic geometry and simple numbers. In ancient Greece, Plato and Pythagoras understood that humans needed “superior laws” to anchor their existences. Their theories on laws of the Universe were adopted and applied in art and gardening by Vitruvius and Renaissance essays authors. According to the authors of these essays, aesthetics represents the core generating information and laws that branch out toward all the fields of knowledge and social life. Therefore, the purpose of art and architecture essays consists in exploring, through a scientific and rational process, the rules of beauty. The laws of aesthetics proposed by the authors apply to landscaping and gardening with the same rigor and exalt the natural component as much as the artificial one (city and architecture). Several terms and concepts are also extracted that, despite their age, still help us to understand and enrich the contemporary debate revolving around landscaping and gardening. The thesis argues that: 1) the modern idea of gardening must be based on history; 2) history is fundamental even to address the topics of maintenance and restoration of historical gardens; 3) like Leon Battista Alberti maintains, valid theory and ideas produce valuable works; 4) the influence played by aesthetics on authors can be found in many important modern and contemporary gardens. Chapter 1 contains the definition of essay and of the Renaissance concept of aesthetics, analyzed by: a) the idea of science and 2) the analysis of some paintings of the period. Chapters 2 and 3 discuss respectively the theoretical principles of the essays and the design, methodology, construction techniques and the methods of representation of the project according to the authors. These chapters are preparatory toward the following chapters and provide us with the keys necessary to read and interpret Renaissance and modern gardens. Chapter 4 highlights the great influence exercised by those authors on the planning of important villas and gardens from the Renaissance while describing their elements. The 5th and final chapter analyzes some modern gardens among which Chiswick, Villa “I Tatti”, Sutton Place, Villa “Il Roseto”. These villas renew and in our opinion carry on the lesson of the essays written in the Renaissance. The first addendum suggests future lines of research derived from the thesis, while the second addendum contains biographical information regarding the authors examined.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis se organiza en un volumen de Memoria integrada por once capítulos que constituyen el cuerpo de la tesis y otro volumen de Apéndices titulado “Caracterización geotécnica de Base de los suelos de España” que reúne en forma de cuadros las características de textura, permeabilidad, humedad-succión, erosionabilidad y resistencia al corte de los cuarenta y dos perfiles de suelos representativos de los tipos del Mapa de suelos De España. Estos cuadros han sido elaborados originalmente por la doctorando durante sus estudios para la obtención del DEA de la Suficiencia Investigadora, excepto los de resistencia al corte que lo han sido también por la doctorando de forma original, pero ya en la etapa de redacción de la tesis. En el Capítulo 1 “Introducción” se describe la motivación, antecedentes, alcance y contenido de la tesis, ordenado según el índice que en él se incluye. Los Capítulos 2 “Meteorización, 3 “Balance Hídrico” y 4 “Humedades características” constituyen el “estado del arte” en el momento actual de los temas de geotecnia ambiental relacionados con la degradación de la superficie terrestre y la estabilidad de taludes. El Capítulo 2, tras matizar algunas generalidades, aporta elementos para la cuantificación de la alteración de rocas como el “índice climático de Weinert” y de la erosión de suelos como la “ecuación universal de pérdida de suelo (U.S.L.E.)” El Capítulo 3, partiendo de los fenómenos de precipitación y evapotranspiración, plantea el balance hídrico en vertientes con instrumentos para evaluar la infiltración y la escorrentía, conceptos imprescindibles para adentrarse en los de resistencia y erosionabilidad del conjunto suelo-agua. En los Apéndices A1 y A2, se recogen valores de coeficientes de infiltración en condiciones saturadas y no saturadas de los perfiles de suelos del Mapa de España. El Capítulo 4 se dedica al estudio de este conjunto suelo-agua con la definición de conceptos que lo caracterizan, basados en la relación entre los contenidos de ambos elementos o “humedad”, sus valores máximos y mínimos y la forma en la que es retenida el agua por el suelo. Este capítulo acaba con el concepto de “Curva característica Suelo-Agua/Soil Water Characteristic curve (SWCC)”, que liga el contenido de agua de un suelo con la tensión a la que está retenida (uauw) “succión” o con su expresión más usual “pF”. En el Apéndice A 3 se adjuntan las SWCC de los perfiles de suelos del Mapa de suelos de España. En el Capítulo 5 “Resistencia al corte de los suelos”, se detalla la influencia que tienen sobre la resistencia de los suelos factores como el paso del tiempo, el contenido de humedad y la presencia y tipo de vegetación en la superficie del suelo estudiado. El Capítulo 6 “Evaluación de la erosión”, analiza el factor de erosionabilidad del suelo “factor K” de la U.S.L.E., su evaluación en función de la textura, estructura y permeabilidad del suelo, con la estimación hecha para los cuarenta y dos perfiles de suelos del Mapa de España, contenida en el Apéndice 4. En el Capítulo 7 “Metodología de diseño” se hacen en su primera parte unas consideraciones geoambientales de diseño aplicables al estudio de los problemas de inestabilidades en taludes. La segunda parte constituye el núcleo de la tesis con la propuesta de “estimación de los parámetros de resistencia al corte del suelo”, consecuente con las teorías y metodología de análisis expuesta en los capítulos anteriores. En el Apéndice A 5 se presentan los valores de los parámetros coulombianos de resistencia al corte, ”c y Ф” estimados según la caracterización climática a partir del índice de Thornthwaite, en condicionesde diseño para humedades naturales máxima y mínima de los cuarenta y dos perfiles de suelos del Mapa de suelos de España. El Capítulo 8 “Aplicación a casos reales” se considera de gran interés al constituir una auténtica continuación de la segunda parte del capítulo anterior, desarrollando la metodología expuesta en él a cuatro problemáticas de infraestructuras de obras lineales, relacionadas con problemas de erosión y deslizamientos en taludes. El Capítulo 9 “Ensayos de referencia” se incluye como punto de apoyo (referencia) a las teorías expuestas, valorando la idoneidad de los tipos de ensayos y tipos de suelos seleccionados (Laboratorio de Geotecnia del CEDEX y Laboratorio Hong-Kong University of Science and Technology), utilizados para la obtención, por correlaciones deducidas, de las curvas SWCC de los perfiles de suelos del Mapa de España, incluídas en el Apéndice A 3, como se ha citado antes. En el Capítulo 10 “Conclusiones y Futuras Líneas de Investigación”se apuntan en primer lugar unas conclusiones que, a juicio de la doctorando, se pueden extraer con interés de esta tesis y a continuación se esbozan unas posibles líneas de investigación, fundamentalmente de tipo experimental, que complementarían los avances derivados de esta tesis o podrían esclarecer y abrir nuevas interpretaciones de los fenómenos naturales de erosión y estabilidad de taludes en los que ésta se ha centrado. Finalmente, en el Capítulo 11 “Bibliografía” se han reunido 328 referencias que reflejan una visión amplia y bastante completa del tema tratado, obtenida complementando las de tesis anteriores sobre esta singular materia (“Efecto estabilizador de la vegetación en taludes”, L Fort 1975 y “Determinación de las características de fricción en el contacto suelo-geotextil a diferentes succiones, mediante equipos de laboratorio singulares”, E Asanza 2009), con propias de la doctorando (9) y las consideradas de mayor interés de los últimos Congresos sobre Suelos no saturados,”Unsat 95”, “Unsat 2002” y “Unsat 2011” entre otros. ABSTRACT The thesis is organized in a volume of Memory composed of eleven chapters that make up the body of the thesis and other Appendices volume entitled "Geotechnical characterization of basis of the soils of Spain" that combines the characteristics of texture, permeability, moisture-suction, erosionability, and shear strength of forty-two profiles of soils representative of the types of the soil of Spain map in the form of pictures. These pictures have been produced originally by the student during their studies to obtain the DEA of the research, except those of the shear strength, also been done by the PhD student in an original way, but already at the stage of drafting of the thesis. Chapter 1 "Introducción" describes the motivation, background, scope and content of the thesis, ordered according to the index that is included. The Chapters: 2 "Weathering, 3 “Water Balance” and 4 “moisture characteristics" are the "State of the art" at the present time of geotechnical environmental issues related to the degradation of the Earth's surface and the slope stability. Chapter 2 after clarify some general information, provides elements for the quantification of the alteration of rocks as "Weinert climate index" and soil erosion as the "universal equation of loss of soil (U.S.L.E.)" Chapter 3, on the basis of the phenomena of precipitation and evapotranspiration, raises the water balance in sheds with instruments to evaluate infiltration and runoff, essential concepts into the resistance and erosionability water-soil joint. Values of soils coefficients of infiltration in saturated and unsaturated conditions from the Spain map of profiles are collected in the Appendices A1 and A2. Chapter 4 is dedicated to the study of this joint “soil-water”, with the definition of concepts that characterize it, based on the relationship between the contents of both elements or “moisture”, their maximum and minimum values and the way in which water is retained by the soil. This chapter ends with the concept of “Soil Water Characteristic curve (SWCC)", which linked the water content of a soil with the stress that it is retained (ua-uw) "suction" or its expression more usual "pF". The SWCC of the profiles of soils of the Spain soils Map are attached in the Appendix 3. In Chapter 5 “Soils shear strength”,is detailed the influence that they have on the resistance of soils factors such as the passage of time, the content of moisture and the presence and type of vegetation on the surface of the studied soil. Chapter 6 "Assessment of erosion", analyses the soil erodibility factor "Kfactor" of the U.S.L.E., its evaluation based on texture, structure and permeability of the soil, with the estimate for forty-two profiles of soils on the Spain Soils Map, contained in Appendix 4. Chapter 7 "Design methodology" some considerations are made in the first part geo-environmental design applicable to the study of the problems of instabilities in slopes. The second part constitutes the core of the thesis with the proposal of “estimation of parameters of shear strength”, of the soils consistent with theories and analytical methodology outlined in the previous chapters. Appendix A 5 presents the values of the coulombians parameters of shear strength, "c and Ф" according to the characterization of climate from the index of Thornthwaite, in design for natural moisture conditions maximum and minimum of forty-two profils of Spain Soils Map Chapter 8 "Application to real cases" is considered of great interest to constitute a true continuation of the second part of the previous chapter, developing the methodology exposed it to four problems of civil-works infrastructure, related to problems of erosion and landslides in slopes. Chapter 9 "Tests of reference" is included as point of support (reference) to the theories exposed, assessing the suitability of the types of tests and types of selected soils (Geotechnical laboratory of CEDEX and laboratory Hongkong University of Science and Technology), used to obtain, by deduced correlations, of curves SWCC of soils profiles on the Spain Soils Map, included in Appendix A. 3, as it was mentioned before. Chapter 10 "Conclusions and future research lines" are running first conclusions which, in the opinion of the candidate, can be extracted with interest of this thesis, and then, it outlines some possible lines of research, mainly experimental, which would complement the advances arising from this thesis or could clarify and open new interpretations of natural phenomena of erosion and slope stability in which it has focused. Finally, in Chapter 11 "Bibliography" 328 references have been included which reflect a broad and fairly comprehensive view of the subject matter, obtained complementing those of the previous theses on this singular issue ("Vegetation stabilizing effect on slopes", L Fort 1975, and "Determination of the characteristics of friction in the contact soil-geotextile to different-suctions, through special laboratory equipment", E Asanza 2009) with some of them from of the candidate (9) and the others from of the considered as the most interesting of recent conferences on unsaturated soils, "Unsat 95", "Unsat2002" and "Unsat 2011" among others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación nace de la necesidad de aunar el máximo conocimiento sobre el sector Desarrollo Rural, Seguridad Alimentaria y Nutrición en la Cooperación Española, tanto desde un punto de vista teórico como práctico, que facilite, por un lado, precisar los límites que abarca el sector, conceptuales y de aplicación, mejorando la eficiencia y eficacia de las intervenciones en él, y por otro, conformar una prospectiva del mismo. La tesis propone una metodología de investigación-acción, puesto que por la propia posición de trabajo de la investigadora en la AECID y en el sector, esta es, a la vez, objeto y actora de la realidad vivida y del cambio a futuro. Para el trabajo de campo se ha contado con un importante grupo de expertos en la materia, que han participado en talleres de reflexión y en la encuesta Delphi, así como con una serie de entrevistas en profundidad. El requisito de contar con un marco teórico en el que se sustente el sector es esencial y el capítulo IV contempla este, partiendo de los antecedentes y marco normativo de la política de cooperación española, substancialmente la Ley de Cooperación Internacional para el Desarrollo, pasando por los principales instrumentos de planificación de esta política: Planes Directores, Estrategias sectoriales y Plan de Actuación Sectorial de Desarrollo Rural y Lucha contra el Hambre. Se puntualiza la cooperación reembolsable en el sector, y se repasan las principales actuaciones que han tenido lugar en el contexto internacional con especial hincapié en la crisis provocada por la subida del precio de los alimentos y las medidas más significativas que se tomaron para combatirla, pasando a continuación al proceso post-2015, los Objetivos de Desarrollo Sostenible y la posición española en él. En el marco conceptual se revisan términos tales como Derecho Humano a la Alimentación, Seguridad Alimentaria y Nutrición, Seguridad alimentaria, Seguridad alimentaria nutricional, Soberanía alimentaria, Seguridad alimentaria como Bien Público Mundial, Desarrollo Rural, Desarrollo Rural Territorial, Enfoque Territorial y Resiliencia, concluyendo este apartado con la búsqueda de las interrelaciones entre Seguridad alimentaria, Derecho Humano a la Alimentación y Desarrollo Rural Territorial. El capítulo termina con un breve repaso de lo que hacen en esta materia las principales agencias de Cooperación Internacional de los donantes más importantes del CAD. En el Marco de Aplicación se acomete una comparación de la evolución de la AOD en el marco temporal de la investigación, del 2000 al 2013, concedida al sector por la Cooperación Española en función de los distintos subsectores y también una comparativa de la ayuda otorgada por los principales donantes del CAD para este mismo periodo. Posteriormente se examinan las intervenciones centrales de la Cooperación Española en Derecho Humano a la Alimentación con la sociedad civil, con la FAO y con el relator especial de NNUU para el Derecho a la Alimentación, Seguridad Alimentaria Nutricional, destacando el Fondo España-ODM y el Programa Especial de Seguridad Alimentaria (PESA)y Desarrollo Rural Territorial , sobre el proyecto EXPIDER I y II (Experiencias de desarrollo local rural en América Latina) , y el proyecto PIDERAL ( Proyecto de políticas innovadoras de desarrollo de los territorios rurales en América Latina ) y tres intervenciones con enfoque regional como son :La Iniciativa América Latina y Caribe sin Hambre (IALCSH), la Estrategia Centroamericana de Desarrollo Rural Territorial (ECADERT) y la intervención de la Cooperación Española apoyando la Política Agraria de la CEDEAO. La investigación empírica esencialmente con un enfoque cualitativo, se examina y detalla en el capítulo VI, reflejándose las principales conclusiones de la misma en el capítulo del mismo nombre, tras haber contrastado las hipótesis formuladas y posteriormente cotejar las aplicaciones prácticas de la tesis y proponer posibles nuevas líneas de investigación. ABSTRACT This research stems from the need to combine the best knowledge about the Rural Development, Food Security and Nutrition sectors in Spanish Cooperation, both from a theoretical and practical point of view, that enables, on the one hand, to specify the limits that the sector covers, both conceptual and of implementation, improving the efficiency and effectiveness of interventions in it, and on the other, shape the future thereof. The thesis proposes a methodology of research-action, which is the AECID researcher´s own position in the sector, being at the same time, both researcher and participant of the reality experienced and future change. The field work benefitted from the support of a major group of experts in the field, who participated in reflection workshops, the Delphi survey and a series of in-depth interviews. The requirement for a theoretical framework that sustains the sector is essential and Chapter IV provides for this, starting with the background and legal framework of the policy of Spanish cooperation, essentially the International Development Cooperation Law, through the main instruments of policy planning: Master Plans; sectorial strategies; the Sectorial Action Plan for Rural Development; Fight against hunger. Refundable cooperation in the sector is specified, and the key actions that have taken place in the international context with special emphasis on the crisis caused by rising food prices and the most significant measures taken to combat it are reviewed. Then continuing with the post-2015 process, the Sustainable Development Objectives and the Spanish position in them. Conceptional framework terms such as Human Right to Food, Food Security and Nutrition, Food Security, Nutritional Food Security, Food Sovereignty, Food Security as a global public good, Rural Development, Rural Regional Development, Regional Approach and Resilience are reviewed, ending this section with the search for the interrelationship between Food Security, Human Right to Food and Rural Regional Development. The chapter ends with a brief overview of what the main agencies for International Cooperation of the major DAC donors do in this area. In the implementation framework, a comparison is provided of the evolution of the ODA within the time frame of the investigation, from 2000 to 2013, granted to the sector by the Spanish Cooperation in terms of the various subsectors and also a comparison is made of the support provided by the DAC's major donors for the same period. Subsequently the core interventions of Spanish Cooperation in the Human Right to Food with civil society, with FAO and the UN Special Rapporteur on the Right to Food, Food Security Nutrition are examined, highlighting the Spain MDG Fund and the Special Programme for Food Security (PESA) and Regional Rural Development on the EXPIDER I and II project (Rural local development experiences in Latin America), and the PIDERAL project (Innovative policy development project of rural areas in Latin America) and three regionally focused interventions such as: the Latin America and Caribbean without Hunger (HFLACI) Initiative, the Central American Strategy for Rural Development (ECADERT) and the intervention of the Spanish Cooperation to support the ECOWAS Agricultural Policy. Empirical research, essentially with a qualitative approach, is examined and detailed in Chapter VI, reflecting the main conclusions of the investigation in the chapter of the same name, after having contrasted the ideas put forward, and then later compares the practical applications of the thesis and proposes possible new lines of research.