45 resultados para Gran Bretaña - Reyes y soberanos
Resumo:
El sistema capitalista ha generado dos de los modelos espaciales de indiferencia funcional más extremos: por un lado, el espacio tecnificado y repetido del edificio de oficinas en altura, encarnado por la ?planta tipo? y, por otro, el espacio diáfano y extenso del gran contendor, que responde a la lógica de lo que llamaremos ?planta única?. En los edificios construidos para la industria automovilística y bélica americana se encuentra el germen de un tipo que servirá de modelo para los nuevos espacios de consumo de bienes y servicios de la ciudad post-industrial. En ella, la identificación del rascacielos con el centro y del contenedor con la periferia sigue vigente, porque la densidad necesaria del primero y la ocupación extensiva del segundo hacen que resulte imposible invertir los términos. Sin embargo, ambos representan el desarrollo estrictamente pragmático de los principios de la ?planta libre? como sistema operativo genérico, dando lugar a construcciones de gran tamaño que ponen a prueba la resistencia a la escala del propio tipo. Tomando como referencia la neutralidad característica de la ?planta única? el texto analiza el comportamiento frente al cambio de tamaño de sus dos configuraciones complementarias: la gran sala hipóstila y la gran sala diáfana.
Resumo:
Esta tesis constituye un gran avance en el conocimiento del estudio y análisis de inestabilidades hidrodinámicas desde un punto de vista físico y teórico, como consecuencia de haber desarrollado innovadoras técnicas para la resolución computacional eficiente y precisa de la parte principal del espectro correspondiente a los problemas de autovalores (EVP) multidimensionales que gobiernan la inestabilidad de flujos con dos o tres direcciones espaciales inhomogéneas, denominados problemas de estabilidad global lineal. En el contexto del trabajo de desarrollo de herramientas computacionales presentado en la tesis, la discretización mediante métodos de diferencias finitas estables de alto orden de los EVP bidimensionales y tridimensionales que se derivan de las ecuaciones de Navier-Stokes linealizadas sobre flujos con dos o tres direcciones espaciales inhomogéneas, ha permitido una aceleración de cuatro órdenes de magnitud en su resolución. Esta mejora de eficiencia numérica se ha conseguido gracias al hecho de que usando estos esquemas de diferencias finitas, técnicas eficientes de resolución de problemas lineales son utilizables, explotando el alto nivel de dispersión o alto número de elementos nulos en las matrices involucradas en los problemas tratados. Como más notable consecuencia cabe destacar que la resolución de EVPs multidimensionales de inestabilidad global, que hasta la fecha necesitaban de superordenadores, se ha podido realizar en ordenadores de sobremesa. Además de la solución de problemas de estabilidad global lineal, el mencionado desarrollo numérico facilitó la extensión de las ecuaciones de estabilidad parabolizadas (PSE) lineales y no lineales para analizar la inestabilidad de flujos que dependen fuertemente en dos direcciones espaciales y suavemente en la tercera con las ecuaciones de estabilidad parabolizadas tridimensionales (PSE-3D). Precisamente la capacidad de extensión del novedoso algoritmo PSE-3D para el estudio de interacciones no lineales de los modos de estabilidad, desarrollado íntegramente en esta tesis, permite la predicción de transición en flujos complejos de gran interés industrial y por lo tanto extiende el concepto clásico de PSE, el cuál ha sido empleado exitosamente durante las pasadas tres décadas en el mismo contexto para problemas de capa límite bidimensional. Típicos ejemplos de flujos incompresibles se han analizado en este trabajo sin la necesidad de recurrir a restrictivas presuposiciones usadas en el pasado. Se han estudiado problemas vorticales como es el caso de un vórtice aislado o sistemas de vórtices simulando la estela de alas, en los que la homogeneidad axial no se impone y así se puede considerar la difusión viscosa del flujo. Además, se ha estudiado el chorro giratorio turbulento, cuya inestabilidad se utiliza para mejorar las características de funcionamiento de combustores. En la tesis se abarcan adicionalmente problemas de flujos compresibles. Se presenta el estudio de inestabilidad de flujos de borde de ataque a diferentes velocidades de vuelo. También se analiza la estela formada por un elemento rugoso aislado en capa límite supersónica e hipersónica, mostrando excelentes comparaciones con resultados obtenidos mediante simulación numérica directa. Finalmente, nuevas inestabilidades se han identificado en el flujo hipersónico a Mach 7 alrededor de un cono elíptico que modela el vehículo de pruebas en vuelo HIFiRE-5. Los resultados comparan favorablemente con experimentos en vuelo, lo que subraya aún más el potencial de las metodologías de análisis de estabilidad desarrolladas en esta tesis. ABSTRACT The present thesis constitutes a step forward in advancing the frontiers of knowledge of fluid flow instability from a physical point of view, as a consequence of having been successful in developing groundbreaking methodologies for the efficient and accurate computation of the leading part of the spectrum pertinent to multi-dimensional eigenvalue problems (EVP) governing instability of flows with two or three inhomogeneous spatial directions. In the context of the numerical work presented in this thesis, the discretization of the spatial operator resulting from linearization of the Navier-Stokes equations around flows with two or three inhomogeneous spatial directions by variable-high-order stable finite-difference methods has permitted a speedup of four orders of magnitude in the solution of the corresponding two- and three-dimensional EVPs. This improvement of numerical performance has been achieved thanks to the high-sparsity level offered by the high-order finite-difference schemes employed for the discretization of the operators. This permitted use of efficient sparse linear algebra techniques without sacrificing accuracy and, consequently, solutions being obtained on typical workstations, as opposed to the previously employed supercomputers. Besides solution of the two- and three-dimensional EVPs of global linear instability, this development paved the way for the extension of the (linear and nonlinear) Parabolized Stability Equations (PSE) to analyze instability of flows which depend in a strongly-coupled inhomogeneous manner on two spatial directions and weakly on the third. Precisely the extensibility of the novel PSE-3D algorithm developed in the framework of the present thesis to study nonlinear flow instability permits transition prediction in flows of industrial interest, thus extending the classic PSE concept which has been successfully employed in the same context to boundary-layer type of flows over the last three decades. Typical examples of incompressible flows, the instability of which was analyzed in the present thesis without the need to resort to the restrictive assumptions used in the past, range from isolated vortices, and systems thereof, in which axial homogeneity is relaxed to consider viscous diffusion, as well as turbulent swirling jets, the instability of which is exploited in order to improve flame-holding properties of combustors. The instability of compressible subsonic and supersonic leading edge flows has been solved, and the wake of an isolated roughness element in a supersonic and hypersonic boundary-layer has also been analyzed with respect to its instability: excellent agreement with direct numerical simulation results has been obtained in all cases. Finally, instability analysis of Mach number 7 ow around an elliptic cone modeling the HIFiRE-5 flight test vehicle has unraveled flow instabilities near the minor-axis centerline, results comparing favorably with flight test predictions.
Resumo:
Se presentan los primeros datos de macrorrestos analizados en el sector oriental del Sistema Central de gran interés paleoecológico y que hasta el momento son los más antiguos del sistema central ibérico.
Resumo:
En el presente proyecto final de carrera se lleva a cabo un estudio de los sistemas de comunicaciones ópticas de 100 Gb/s. En la primera parte del proyecto se repasan las principales técnicas de modulación y de recepción de la portadora óptica, se presentan los diferentes formatos avanzados de modulación digital empleados para transmisiones de banda ancha y se discute por qué las modulaciones QPSK y DQPSK ofrecen mejores prestaciones que el resto a 100 Gb/s. La segunda parte compone el grueso del proyecto. Se centra en el estudio y la optimización de los sistemas ópticos de 100 Gb/s que hacen uso de los formatos de fase en cuadratura anteriores. De dicho análisis se pretende conocer cómo se degradan este tipo de señales a medida que se propagan por la fibra a estas velocidades. Intentaremos descubrir además cómo controlar ciertos parámetros de diseño como el ciclo de trabajo de la portadora óptica, el mapa de dispersión del enlace, la potencia inyectada a la fibra, la longitud de los vanos de amplificación …, para conseguir reducir la penalización sufrida por las limitaciones anteriores. La detección óptica coherente, la multiplexación en polarización, fibras de gran área efectiva y elevado coeficiente de dispersión cromática, unidas al uso de los formatos de fase en cuadratura, componen la mejor solución tecnológica para conseguir hacer realidad las transmisiones ópticas a 100 Gb/s de larga y ultra-larga distancia. Con el objetivo de completar el estudio teórico anterior, se diseñará una red óptica de banda ancha sobre la que se aplicarán las técnicas de diseño desarrolladas a lo largo del proyecto.
Resumo:
Hablar de ‘coherencia’ en relación al pensamiento y la obra de Francisco Javier Sáenz de Oíza (1918-2000) es un planteamiento, cuando menos, polémico. Su obra presenta una gran diversidad poética, y su pensamiento, expresado en sus apariciones en público, se muestra como un continuo movimiento circular entre polos opuestos, incluso contradictorios. Lo cual ha llevado a manejar en torno a su figura conceptos como ‘pluralismo’, ‘multiplicidad’, etc. Pero considerar la idea de una ‘unidad en la variedad’ (principio ilustrado de la belleza) aún continúa siendo una posibilidad esquiva para Sáenz de Oíza. Plantear esta posibilidad exige hallar ciertas invariantes en su trayectoria profesional; en este sentido se identifica y se ofrece en este trabajo una posible ‘invariante’.
Resumo:
This document is the result of a process of web development to create a tool that will allow to Cracow University of Technology consult, create and manage timetables. The technologies chosen for this purpose are Apache Tomcat Server, My SQL Community Server, JDBC driver, Java Servlets and JSPs for the server side. The client part counts on Javascript, jQuery, AJAX and CSS technologies to perform the dynamism. The document will justify the choice of these technologies and will explain some development tools that help in the integration and development of all this elements: specifically, NetBeans IDE and MySQL workbench have been used as helpful tools. After explaining all the elements involved in the development of the web application, the architecture and the code developed are explained through UML diagrams. Some implementation details related to security are also deeper explained through sequence diagrams. As the source code of the application is provided, an installation manual has been developed to run the project. In addition, as the platform is intended to be a beta that will be grown, some unimplemented ideas for future development are also exposed. Finally, some annexes with important files and scripts related to the initiation of the platform are attached. This project started through an existing tool that needed to be expanded. The main purpose of the project along its development has focused on setting the roots for a whole new platform that will replace the existing one. For this goal, it has been needed to make a deep inspection on the existing web technologies: a web server and a SQL database had to be chosen. Although the alternatives were a lot, Java technology for the server was finally selected because of the big community backwards, the easiness of modelling the language through UML diagrams and the fact of being free license software. Apache Tomcat is the open source server that can use Java Servlet and JSP technology. Related to the SQL database, MySQL Community Server is the most popular open-source SQL Server, with a big community after and quite a lot of tools to manage the server. JDBC is the driver needed to put in contact Java and MySQL. Once we chose the technologies that would be part of the platform, the development process started. After a detailed explanation of the development environment installation, we used UML use case diagrams to set the main tasks of the platform; UML class diagrams served to establish the existing relations between the classes generated; the architecture of the platform was represented through UML deployment diagrams; and Enhanced entity–relationship (EER) model were used to define the tables of the database and their relationships. Apart from the previous diagrams, some implementation issues were explained to make a better understanding of the developed code - UML sequence diagrams helped to explain this. Once the whole platform was properly defined and developed, the performance of the application has been shown: it has been proved that with the current state of the code, the platform covers the use cases that were set as the main target. Nevertheless, some requisites needed for the proper working of the platform have been specified. As the project is aimed to be grown, some ideas that could not be added to this beta have been explained in order not to be missed for future development. Finally, some annexes containing important configuration issues for the platform have been added after proper explanation, as well as an installation guide that will let a new developer get the project ready. In addition to this document some other files related to the project are provided: - Javadoc. The Javadoc containing the information of every Java class created is necessary for a better understanding of the source code. - database_model.mwb. This file contains the model of the database for MySQL Workbench. This model allows, among other things, generate the MySQL script for the creation of the tables. - ScheduleManager.war. The WAR file that will allow loading the developed application into Tomcat Server without using NetBeans. - ScheduleManager.zip. The source code exported from NetBeans project containing all Java packages, JSPs, Javascript files and CSS files that are part of the platform. - config.properties. The configuration file to properly get the names and credentials to use the database, also explained in Annex II. Example of config.properties file. - db_init_script.sql. The SQL query to initiate the database explained in Annex III. SQL statements for MySQL initialization. RESUMEN. Este proyecto tiene como punto de partida la necesidad de evolución de una herramienta web existente. El propósito principal del proyecto durante su desarrollo se ha centrado en establecer las bases de una completamente nueva plataforma que reemplazará a la existente. Para lograr esto, ha sido necesario realizar una profunda inspección en las tecnologías web existentes: un servidor web y una base de datos SQL debían ser elegidos. Aunque existen muchas alternativas, la tecnología Java ha resultado ser elegida debido a la gran comunidad de desarrolladores que tiene detrás, además de la facilidad que proporciona este lenguaje a la hora de modelarlo usando diagramas UML. Tampoco hay que olvidar que es una tecnología de uso libre de licencia. Apache Tomcat es el servidor de código libre que permite emplear Java Servlets y JSPs para hacer uso de la tecnología de Java. Respecto a la base de datos SQL, el servidor más popular de código libre es MySQL, y cuenta también con una gran comunidad detrás y buenas herramientas de modelado, creación y gestión de la bases de datos. JDBC es el driver que va a permitir comunicar las aplicaciones Java con MySQL. Tras elegir las tecnologías que formarían parte de esta nueva plataforma, el proceso de desarrollo tiene comienzo. Tras una extensa explicación de la instalación del entorno de desarrollo, se han usado diagramas de caso de UML para establecer cuáles son los objetivos principales de la plataforma; los diagramas de clases nos permiten realizar una organización del código java desarrollado de modo que sean fácilmente entendibles las relaciones entre las diferentes clases. La arquitectura de la plataforma queda definida a través de diagramas de despliegue. Por último, diagramas EER van a definir las relaciones entre las tablas creadas en la base de datos. Aparte de estos diagramas, algunos detalles de implementación se van a justificar para tener una mejor comprensión del código desarrollado. Diagramas de secuencia ayudarán en estas explicaciones. Una vez que toda la plataforma haya quedad debidamente definida y desarrollada, se va a realizar una demostración de la misma: se demostrará cómo los objetivos generales han sido alcanzados con el desarrollo actual del proyecto. No obstante, algunos requisitos han sido aclarados para que la plataforma trabaje adecuadamente. Como la intención del proyecto es crecer (no es una versión final), algunas ideas que se han podido llevar acabo han quedado descritas de manera que no se pierdan. Por último, algunos anexos que contienen información importante acerca de la plataforma se han añadido tras la correspondiente explicación de su utilidad, así como una guía de instalación que va a permitir a un nuevo desarrollador tener el proyecto preparado. Junto a este documento, ficheros conteniendo el proyecto desarrollado quedan adjuntos. Estos ficheros son: - Documentación Javadoc. Contiene la información de las clases Java que han sido creadas. - database_model.mwb. Este fichero contiene el modelo de la base de datos para MySQL Workbench. Esto permite, entre otras cosas, generar el script de iniciación de la base de datos para la creación de las tablas. - ScheduleManager.war. El fichero WAR que permite desplegar la plataforma en un servidor Apache Tomcat. - ScheduleManager.zip. El código fuente exportado directamente del proyecto de Netbeans. Contiene todos los paquetes de Java generados, ficheros JSPs, Javascript y CSS que forman parte de la plataforma. - config.properties. Ejemplo del fichero de configuración que permite obtener los nombres de la base de datos - db_init_script.sql. Las consultas SQL necesarias para la creación de la base de datos.
Resumo:
En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.
Resumo:
Si bien se han ido realizando análisis sistemáticos desde el punto de vista arquitectónico de los diferentes jardines nacionales europeos, el jardín clásico español, a pesar del importante incremento de bibliografía operado en la última década, no ha sido todavía estudiado desde los criterios compositivos y espaciales propios de la disciplina arquitectónica. Responde el jardín clásico español a una organización perspectiva que proviene de las construcciones espaciales originadas y desarrolladas en Italia durante los siglos XV y XVI; establece, además, una importante conexión con la arquitectura de jardines contemporánea, es decir, las grandes corrientes europeas –desde el jardín renacentista italiano al barroco francés-, que asume, interpreta e incluso supera en cuanto a organización unitaria e integración con su entorno en varios ejemplos señeros. Pero esta imbricación europea se ve puntualizada por una influencia primordial: el concepto islámico del espacio arquitectónico, caracterizado por la fragmentación y la pérdida de la axialidad, que en España se extiende de forma generalizada. Fusionada con los principios perspectivos provenientes de Italia, esta concepción espacial proporciona a los jardines –y demás edificios- una gran riqueza espacial que, poco analizada y mal comprendida, se ha considerado habitualmente como falta de pericia compositiva. Este hecho ha negado a los jardines españoles originalidad alguna –otorgada, en cambio, a los hispanomusulmanes- y una clasificación periférica en la historia de la disciplina. El jardín clásico español presenta tres etapas principales: una primera, durante los siglos XVI y XVII, que se podría denominar renacentista; una segunda, en la primera mitad del siglo XVIII, de ascendencia barroca francesa, y, por último, en la segunda mitad del Ochocientos, el jardín neoclásico, que en buena medida retoma la organización formal de la primera etapa renacentista. Las tres influencias preponderantes en el jardín renacentista español son la hispanomusulmana, procedente de la ocupación islámica en España desde el siglo VIII hasta el XV, cuya estela se mantiene durante todo el desarrollo del jardín clásico; una flamenca, de menor calado y cuyo origen está en los contactos políticos de la corona española con Flandes, y, por último, la italiana, de donde procederá la espacialidad perspectiva propia del Renacimiento, extendida por toda Europa y conocida en España asimismo por vínculos políticos y culturales. El jardín hispanomusulmán va a proporcionar los rasgos distintivos de la jardinería española posterior, derivados de la necesaria adaptación compositiva a un medio físico poco idóneo para la implantación de jardines. Esta cuestión se soluciona tradicionalmente de forma perfecta con el patio y el apoyo de una serie de elementos arquitectónicos de carácter ligero articulados aleatoriamente con la vivienda para organizar su entorno, operación que produce un organismo superior asimétrico y estructurado a partir de pequeños fragmentos ordenados por ejes quebrados, cuyo crecimiento no presupone un cambio en las cualidades espaciales del jardín. Esta ordenación quebrada y la fragmentación espacial tienden a embarazar la unidad perspectiva renacentista, de tal forma que el jardín español no presenta grandes ejes visuales ni espacios fugados, sino pequeñas piezas independientes –adaptadas mejor a la corrección climática y al riego- que se agregan sin intención de regularidad o simetría, pues buscan la ambigüedad espacial mediante la ofuscación de la percepción y orientación en el jardín, como sucedía en las obras hispanomusulmanas. El jardín renacentista español tendrá una doble vertiente dependiendo del medio físico donde se asiente: si este es poco propicio a la implantación de jardines, se recuperará la ordenación espacial medieval musulmana como respuesta compositiva a dicho entorno remiso, pues los ensayos de jardines basados en elementos arquitectónicos, ante la dificultad de estructurar el espacio del jardín en España con las componentes naturales –topografía, vegetación y agua-, se realizaron con éxito y se reutilizaron en siglos posteriores, e incluso alcanzan el momento actual; contemporáneamente, en territorios propicios a la creación de jardines –generalmente, riberas de ríos-, se podrá desarrollar el espacio perspectivo unitario italiano, que producirá ejemplos de gran calidad. Así, Felipe II creará de forma simultánea jardines muy diferentes según su ubicación. Entre los de carácter más medieval destacan los del Alcázar de Madrid y Valsaín –con el antecedente de Yuste, promovido por Carlos V-, y de los plenamente renacentistas, la Casa de Campo, El Escorial y Aranjuez, éstos últimos de Juan Bautista de Toledo. Los dos primeros se organizan con varios recintos independientes articulados por ejes quebrados y ordenados a partir de elementos ligeros –galerías, torreones, miradores- que se proyectan hacia el exterior para dar forma al entorno inmediato del palacio. Los últimos, en cambio, utilizan las posibilidades del medio natural para estructurar los jardines, y establecen magníficos ejes de raigambre renacentista, origen de espacios perspectivos unitarios de gran interés, dado su tamaño y temprana fecha de creación. Así, en la Casa de Campo la villa se articula con un jardín llano cuya unidad espacial no tiene parangón en la Italia del momento; en Aranjuez, el Jardín de la Isla, independiente en su trazado del palacio que lo propicia, presenta una superposición de dos ejes con gradientes en sentido contrario, y una ordenación a escala territorial, las Huertas de Picotajo, con una malla focalizada de doble simetría adaptada a un difícil meandro del río Jarama y con capacidad de extensión ilimitada en la vega de Aranjuez, que es contemporánea pero mucho más evolucionada que los primeros tridentes creados en Italia y anterior en un siglo a las formalizaciones de Versalles. Frente a estas realizaciones reales, en España los jardines nobiliarios responden a una clara influencia medieval, como los del duque de Alcalá en Bornos, el marqués de Mondéjar, Bellaflor en Sevilla, la Casa del Rey en Arganda o el cigarral de Buenavista en Toledo. Pero en paralelo con éstos y promovidos por nobles conectados con Italia, se están implantando jardines de hispanomusulmana-, en fechas incluso anteriores a los construidos por la corona. Así, el marqués de Villena construye en Cadalso de los Vidrios un jardín con una tempranísima ordenación en terrazas que se integra con su entorno; el duque de Alba en Abadía realiza la misma operación con mayor desarrollo espacial; y en Béjar por el duque de esta ciudad salmantina se establece otro jardín de clara espacialidad italiana, pero con la casa fuera de la ordenación. El siglo XVII supone, en los escasos ejemplos construidos, la prolongación de la espacialidad renacentista introducida por Juan Bautista de Toledo. Hay una clara continuidad en los jardines aterrazados, como La Zarzuela y La Florida, mientras en el ejemplo llano principal, el Buen Retiro, se atiende más a la fragmentación hispana y a una adaptación de los sistemas de extensión al aumento de escala. Así había sucedido en Italia, donde los jardines de malla ortogonal se convirtieron en grandes parques focalizados, con avenidas arboladas y remates perspectivos, elementos que se repiten en el jardín madrileño, aunque sin la unidad conseguida en los precedentes mediante la focalización. El siglo XVIII va a conocer la nueva dinastía de los Borbones y el jardín barroco francés, que supondrá un cambio radical en la concepción espacial del jardín, aunque la influencia hispana no dejará de producirse. El tamaño de estos jardines, su coste de implantación y mantenimiento y la falta de adaptación al medio físico español serán los factores principales del escaso desarrollo que el jardín de Le Nôtre alcanzó en España. A pesar de los proyectos realizados - algunos de gran calidad, como los de Robert de Cotte para el Buen Retiro, los del Palacio Real Nuevo, el de Riofrío y el del castillo de Villaviciosa de Odón-, sólo se van a construir escasos parterres de los denominados urbanos. Entre ellos hay que destacar los del Buen Retiro, Aranjuez y palacios de Liria, Buenavista y Altamira en Madrid, Piedrahita para los duques de Alba, el convento de Santa Bárbara, Migas Calientes –algunos de éstos quedaron en proyecto-, a los que se añade un gran jardín con todos los componentes, que es San Ildefonso de La Granja. En La Granja se puede encontrar un parque completo a la francesa, que responde en mayor medida a los principios establecidos en el tratado de Dezallier d'Argenville que a la influencia directa de las obras de Le Nôtre. Pero la ordenación canónica de jardín barroco francés se particulariza mediante los dispositivos proyectuales de origen hispano, pues se desjerarquizan los ejes principales impidiendo su continuidad, que queda truncada por desarrollos paralelos, interrupciones perspectivas y ejes quebrados. En la segunda mitad del siglo XVIII, los propios monarcas Borbones recuperarán los jardines regulares de los Austrias, cuyos tipos llano y aterrazado tuvieron un importante desarrollo con Felipe II y Juan Bautista de Toledo y gozaban de un merecido prestigio. Ya con Fernando VI se introdujeron ordenaciones de inspiración renacentista, como en el Jardín del Príncipe de Aranjuez; pero será con su hermano Carlos III cuando se revisen las actuaciones filipinas. Juan de Villanueva fue el autor de los principales jardines del momento -entre ellos, las Casitas realizadas para el príncipe de Asturias, el futuro Carlos IV y su hermano el infante Don Gabriel- aunque Ventura Rodríguez realizó en esos años un magnífico epílogo del jardín aterrazado en España: el palacio para el infante Don Luis en Boadilla del Monte, así como proyectos para el parque del Palacio Real Nuevo. En las Casitas de El Escorial –en menor medida en El Pardo-, Villanueva recoge una larga tradición de jardines aterrazados que, además, inserta magistralmente en su entorno, dentro de la secular tradición española de adaptación al medio físico. Lejos de presentar una lectura canónica, aunque utilizando todos los recursos del tipo, el arquitecto consigue la ambigüedad espacial hispana mediante la superposición en el eje longitudinal de dos gradaciones de dirección contraria, accesos quebrados e interrupción de las visuales y el viario, sin prescindir de una ordenación clásica. También de Villanueva son el proyecto definitivo del Jardín Botánico, de gran claridad compositiva y orden científico, y, para el Palacio Real Nuevo y su entorno, el jardín previo a las Reales Caballerizas y una remodelación de la Casa de Campo y su acceso.
Resumo:
La robótica ha evolucionado exponencialmente en las últimas décadas, permitiendo a los sistemas actuales realizar tareas sumamente complejas con gran precisión, fiabilidad y velocidad. Sin embargo, este desarrollo ha estado asociado a un mayor grado de especialización y particularización de las tecnologías implicadas, siendo estas muy eficientes en situaciones concretas y controladas, pero incapaces en entornos cambiantes, dinámicos y desestructurados. Por eso, el desarrollo de la robótica debe pasar por dotar a los sistemas de capacidad de adaptación a las circunstancias, de entendedimiento sobre los cambios observados y de flexibilidad a la hora de interactuar con el entorno. Estas son las caracteristicas propias de la interacción del ser humano con su entorno, las que le permiten sobrevivir y las que pueden proporcionar a un sistema inteligencia y capacidad suficientes para desenvolverse en un entorno real de forma autónoma e independiente. Esta adaptabilidad es especialmente importante en el manejo de riesgos e incetidumbres, puesto que es el mecanismo que permite contextualizar y evaluar las amenazas para proporcionar una respuesta adecuada. Así, por ejemplo, cuando una persona se mueve e interactua con su entorno, no evalúa los obstáculos en función de su posición, velocidad o dinámica (como hacen los sistemas robóticos tradicionales), sino mediante la estimación del riesgo potencial que estos elementos suponen para la persona. Esta evaluación se consigue combinando dos procesos psicofísicos del ser humano: por un lado, la percepción humana analiza los elementos relevantes del entorno, tratando de entender su naturaleza a partir de patrones de comportamiento, propiedades asociadas u otros rasgos distintivos. Por otro lado, como segundo nivel de evaluación, el entendimiento de esta naturaleza permite al ser humano conocer/estimar la relación de los elementos con él mismo, así como sus implicaciones en cuanto a nivel de riesgo se refiere. El establecimiento de estas relaciones semánticas -llamado cognición- es la única forma de definir el nivel de riesgo de manera absoluta y de generar una respuesta adecuada al mismo. No necesariamente proporcional, sino coherente con el riesgo al que se enfrenta. La investigación que presenta esta tesis describe el trabajo realizado para trasladar esta metodología de análisis y funcionamiento a la robótica. Este se ha centrado especialmente en la nevegación de los robots aéreos, diseñando e implementado procedimientos de inspiración humana para garantizar la seguridad de la misma. Para ello se han estudiado y evaluado los mecanismos de percepción, cognición y reacción humanas en relación al manejo de riesgos. También se ha analizado como los estímulos son capturados, procesados y transformados por condicionantes psicológicos, sociológicos y antropológicos de los seres humanos. Finalmente, también se ha analizado como estos factores motivan y descandenan las reacciones humanas frente a los peligros. Como resultado de este estudio, todos estos procesos, comportamientos y condicionantes de la conducta humana se han reproducido en un framework que se ha estructurado basadandose en factores análogos. Este emplea el conocimiento obtenido experimentalmente en forma de algoritmos, técnicas y estrategias, emulando el comportamiento humano en las mismas circunstancias. Diseñado, implementeado y validado tanto en simulación como con datos reales, este framework propone una manera innovadora -tanto en metodología como en procedimiento- de entender y reaccionar frente a las amenazas potenciales de una misión robótica. ABSTRACT Robotics has undergone a great revolution in the last decades. Nowadays this technology is able to perform really complex tasks with a high degree of accuracy and speed, however this is only true in precisely defined situations with fully controlled variables. Since the real world is dynamic, changing and unstructured, flexible and non context-dependent systems are required. The ability to understand situations, acknowledge changes and balance reactions is required by robots to successfully interact with their surroundings in a fully autonomous fashion. In fact, it is those very processes that define human interactions with the environment. Social relationships, driving or risk/incertitude management... in all these activities and systems, context understanding and adaptability are what allow human beings to survive: contrarily to the traditional robotics, people do not evaluate obstacles according to their position but according to the potential risk their presence imply. In this sense, human perception looks for information which goes beyond location, speed and dynamics (the usual data used in traditional obstacle avoidance systems). Specific features in the behaviour of a particular element allows the understanding of that element’s nature and therefore the comprehension of the risk posed by it. This process defines the second main difference between traditional obstacle avoidance systems and human behaviour: the ability to understand a situation/scenario allows to get to know the implications of the elements and their relationship with the observer. Establishing these semantic relationships -named cognition- is the only way to estimate the actual danger level of an element. Furthermore, only the application of this knowledge allows the generation of coherent, suitable and adjusted responses to deal with any risk faced. The research presented in this thesis summarizes the work done towards translating these human cognitive/reasoning procedures to the field of robotics. More specifically, the work done has been focused on employing human-based methodologies to enable aerial robots to navigate safely. To this effect, human perception, cognition and reaction processes concerning risk management have been experimentally studied; as well as the acquisition and processing of stimuli. How psychological, sociological and anthropological factors modify, balance and give shape to those stimuli has been researched. And finally, the way in which these factors motivate the human behaviour according to different mindsets and priorities has been established. This associative workflow has been reproduced by establishing an equivalent structure and defining similar factors and sources. Besides, all the knowledge obtained experimentally has been applied in the form of algorithms, techniques and strategies which emulate the analogous human behaviours. As a result, a framework capable of understanding and reacting in response to stimuli has been implemented and validated.
Resumo:
Los sistemas agroforestales mediterráneos tienen una gran importancia ecológica y socioeconómica, y mantienen altos valores medioambientales y de diversidad biológica a la vez que producen importantes servicios ecosistémicos. Estos sistemas han sido testigos de diversos cambios rápidos y drásticos en su gestión y aprovechamiento durante el último siglo. La mayor parte de la investigación desarrollada en esta tesis doctoral ha sido llevada a cabo en las dehesas españolas. Esta tesis nos muestra: i) la evidencia de la existencia de un cambio global del estrato arbóreo y del manejo del pastoreo en el todo el área de distribución de la dehesa durante los últimos 60 años; ii) la importancia del papel que juega el arbolado disperso y el adecuado manejo del ganado en la mejora de la producción, calidad y diversidad de las comunidades herbáceas, que a su vez, un pasto herbáceo bien desarrollado es importante para la rentabilidad del sistema, evaluando estos efectos bajo distintos escenarios de clima y calidad de estación; y iii) la evidencia de la falta de regeneración en sistemas agroforestales mediterráneos bajo distintos tipos de manejo del pastoreo, y además se evalúa el crecimiento y desarrollo de las pocas plántulas existentes que serán las que aseguren la viabilidad y persistencia y de estos sistemas. El arbolado disperso de estos sistemas ha experimentado una reducción importante en su densidad arbórea y fracción de cabida cubierta durante el periodo entre 1950-1980 donde tuvieron lugar importantes transformaciones en la actividad agropecuaria. La cabaña ganadera de ovino disminuyó drásticamente en los años 70 en comparación a la de bovino que desde entonces ha aumentado progresivamente hasta la actualidad. Por otro lado, el mismo tipo de manejo del ganado doméstico (especialmente bovino) durante bastante tiempo (mínimo 30 años) provocó una reducción significativa de la densidad de las plántulas. Además la probabilidad de ocurrencia y la intensidad de daños por herbivoría fue mayor bajo pastoreo bovino (con daños más intensos y consistentes) que bajo pastoreo ovino o sin pastoreo doméstico (presencia de ciervos). También el patrón de crecimiento de las plantas jóvenes estuvo afectado por el tipo de manejo, generando plántulas achaparradas en el caso del bovino y plántulas esbeltas favoreciendo el crecimiento en altura en el caso del ovino. La presencia de un arbolado disperso generó una mayor diversidad y variación en la producción de las comunidades herbáceas según las condiciones de disponibilidad de agua. Especialmente, el ecotono como microhábitat sostuvo altos valores de diversidad herbácea. La presencia del ganado bajo pastoreo continuo de intensidad moderada a alta, especialmente el bovino, incrementó los rendimientos de producción y diversidad del estrato herbáceo. Los resultados de esta tesis nos muestran la importancia que tiene la existencia de un equilibrio entre la producción y la conservación de los sistemas agroforestales mediterráneos para obtener una producción sostenible de servicios ecosistémicos mientras se asegura la perpetuación del sistema a largo plazo. Es crucial diseñar planes de gestión incorporando objetivos de conservación que integren técnicas silvopastorales apropiadas para poder aplicar en los sistemas agroforestales mediterráneos. ABSTRACT Mediterranean scattered oak woodlands have great ecological and socio-economic importance, supporting high environmental and amenity values, and relatively rich biological diversity while producing important ecosystem services. They have been witnesses of different and fast changes developed in the last century. Most of the research developed in this dissertation has conducted within dehesas. This thesis provides: i) the global change evidence of the tree layer and grazing management experienced in the land-use range of a Mediterranean scattered oak woodland (dehesa) over the last 60 years; ii) the important role of scattered trees and adequate management grazing in the improvement of grassland yield, quality and diversity - which it is important, in turn, for the system profitability - under different climate scenarios and site quality; and iii) the lack of oak regeneration evidence under some given representative management regimes and how is the growth development of these plants to assure the viability and persistence of Mediterranean scattered oak woodlands. Tree layer experienced a significant reduction in dehesas during 1950-1980 period where the highest human impacts took place. Sheep herd decreased drastically during the 1970s and, in contrast, cattle have been increasing gradually since then. On the other hand, same livestock grazing management (especially cattle) during long time (minimum 30 years) within Mediterranean scattered oak woodlands reduced strongly the density of young oak plants and showed high probability of herbivory occurrence and intensity. Young plant growth pattern was greatly modified by livestock. Cattle grazing generated stunted plants and sheep grazing generated slender plants favoring the height growth. Microsites created by large trees modified the herbaceous yield according the water availability of the year and generated high plant diversity within herbaceous communities. Especially, ecotone microsite supported high values of herbaceous diversity. The presence of livestock species increased the herbaceous yield and maintained a more diverse community under continuous grazing at both moderate and high intensities; especially cattle. Thus, around the influence of scattered trees there is a high amount of different interactions among livestock, trees and grasslands maintaining and enhancing the quality of whole dehesa system. The results of this thesis highlight how important is balancing management and preservation of Mediterranean scattered oak woodlands to obtain the optimum ecosystem services while the system conservation is assured for a long-term. It is crucial to design management plans with conservation goals that include appropriate silvopastoral practices in Mediterranean scattered oak woodlands.
Resumo:
Los sistemas agroforestales mediterráneos tienen una gran importancia ecológica y socioeconómica, y mantienen altos valores medioambientales y de diversidad biológica a la vez que producen importantes servicios ecosistémicos. Estos sistemas han sido testigos de diversos cambios rápidos y drásticos en su gestión y aprovechamiento durante el último siglo. La mayor parte de la investigación desarrollada en esta tesis doctoral ha sido llevada a cabo en las dehesas españolas. Esta tesis nos muestra: i) la evidencia de la existencia de un cambio global del estrato arbóreo y del manejo del pastoreo en el todo el área de distribución de la dehesa durante los últimos 60 años; ii) la importancia del papel que juega el arbolado disperso y el adecuado manejo del ganado en la mejora de la producción, calidad y diversidad de las comunidades herbáceas, que a su vez, un pasto herbáceo bien desarrollado es importante para la rentabilidad del sistema, evaluando estos efectos bajo distintos escenarios de clima y calidad de estación; y iii) la evidencia de la falta de regeneración en sistemas agroforestales mediterráneos bajo distintos tipos de manejo del pastoreo, y además se evalúa el crecimiento y desarrollo de las pocas plántulas existentes que serán las que aseguren la viabilidad y persistencia y de estos sistemas. El arbolado disperso de estos sistemas ha experimentado una reducción importante en su densidad arbórea y fracción de cabida cubierta durante el periodo entre 1950-1980 donde tuvieron lugar importantes transformaciones en la actividad agropecuaria. La cabaña ganadera de ovino disminuyó drásticamente en los años 70 en comparación a la de bovino que desde entonces ha aumentado progresivamente hasta la actualidad. Por otro lado, el mismo tipo de manejo del ganado doméstico (especialmente bovino) durante bastante tiempo (mínimo 30 años) provocó una reducción significativa de la densidad de las plántulas. Además la probabilidad de ocurrencia y la intensidad de daños por herbivoría fue mayor bajo pastoreo bovino (con daños más intensos y consistentes) que bajo pastoreo ovino o sin pastoreo doméstico (presencia de ciervos). También el patrón de crecimiento de las plantas jóvenes estuvo afectado por el tipo de manejo, generando plántulas achaparradas en el caso del bovino y plántulas esbeltas favoreciendo el crecimiento en altura en el caso del ovino. La presencia de un arbolado disperso generó una mayor diversidad y variación en la producción de las comunidades herbáceas según las condiciones de disponibilidad de agua. Especialmente, el ecotono como microhábitat sostuvo altos valores de diversidad herbácea. La presencia del ganado bajo pastoreo continuo de intensidad moderada a alta, especialmente el bovino, incrementó los rendimientos de producción y diversidad del estrato herbáceo. Los resultados de esta tesis nos muestran la importancia que tiene la existencia de un equilibrio entre la producción y la conservación de los sistemas agroforestales mediterráneos para obtener una producción sostenible de servicios ecosistémicos mientras se asegura la perpetuación del sistema a largo plazo. Es crucial diseñar planes de gestión incorporando objetivos de conservación que integren técnicas silvopastorales apropiadas para poder aplicar en los sistemas agroforestales mediterráneos. ABSTRACT Mediterranean scattered oak woodlands have great ecological and socio-economic importance, supporting high environmental and amenity values, and relatively rich biological diversity while producing important ecosystem services. They have been witnesses of different and fast changes developed in the last century. Most of the research developed in this dissertation has conducted within dehesas. This thesis provides: i) the global change evidence of the tree layer and grazing management experienced in the land-use range of a Mediterranean scattered oak woodland (dehesa) over the last 60 years; ii) the important role of scattered trees and adequate management grazing in the improvement of grassland yield, quality and diversity - which it is important, in turn, for the system profitability - under different climate scenarios and site quality; and iii) the lack of oak regeneration evidence under some given representative management regimes and how is the growth development of these plants to assure the viability and persistence of Mediterranean scattered oak woodlands. Tree layer experienced a significant reduction in dehesas during 1950-1980 period where the highest human impacts took place. Sheep herd decreased drastically during the 1970s and, in contrast, cattle have been increasing gradually since then. On the other hand, same livestock grazing management (especially cattle) during long time (minimum 30 years) within Mediterranean scattered oak woodlands reduced strongly the density of young oak plants and showed high probability of herbivory occurrence and intensity. Young plant growth pattern was greatly modified by livestock. Cattle grazing generated stunted plants and sheep grazing generated slender plants favoring the height growth. Microsites created by large trees modified the herbaceous yield according the water availability of the year and generated high plant diversity within herbaceous communities. Especially, ecotone microsite supported high values of herbaceous diversity. The presence of livestock species increased the herbaceous yield and maintained a more diverse community under continuous grazing at both moderate and high intensities; especially cattle. Thus, around the influence of scattered trees there is a high amount of different interactions among livestock, trees and grasslands maintaining and enhancing the quality of whole dehesa system. The results of this thesis highlight how important is balancing management and preservation of Mediterranean scattered oak woodlands to obtain the optimum ecosystem services while the system conservation is assured for a long-term. It is crucial to design management plans with conservation goals that include appropriate silvopastoral practices in Mediterranean scattered oak woodlands.
Resumo:
Los sistemas micro electro mecánicos (MEMS) han demostrado ser una exitosa familia de dispositivos que pueden usarse como plataforma para el desarrollo de dispositivos con aplicaciones en óptica, comunicaciones, procesado de señal y sensorización. Los dispositivos MEMS estándar suelen estar fabricados usando tecnología de silicio. Sin embargo, el rendimiento de estos MEMS se puede mejorar si se usan otros materiales. Por ejemplo, el diamante nanocristalino (NCD) ofrece unas excelentes propiedades mecánicas, transparencia y una superficie fácil de funcionalizar. Por otro lado, el sistema de materiales (In; Ga; Al)N, los materiales IIIN, se pueden usar para producir estructuras monocristalinas con alta sensibilidad mecánica y química. Además, el AlN se puede depositar por pulverización catódica reactiva sobre varios substratos, incluyendo NCD, para formar capas policristalinas orientadas con alta respuesta piezoeléctrica. Adicionalmente, tanto el NCD como los materiales III-N muestran una gran estabilidad térmica y química, lo que los hace una elección idónea para desarrollar dispositivos para aplicaciones para alta temperatura, ambientes agresivos e incluso para aplicaciones biocompatibles. En esta tesis se han usado estos materiales para el diseño y medición de demostradores tecnológicos. Se han perseguido tres objetivos principales: _ Desarrollo de unos procesos de fabricación apropiados. _ Medición de las propiedades mecánicas de los materiales y de los factores que limitan el rendimiento de los dispositivos. _ Usar los datos medidos para desarrollar dispositivos demostradores complejos. En la primera parte de esta tesis se han estudiado varias técnicas de fabricación. La estabilidad de estos materiales impide el ataque y dificulta la producción de estructuras suspendidas. Los primeros capítulos de esta disertación se dedican al desarrollo de unos procesos de transferencia de patrones por ataque seco y a la optimización del ataque húmedo sacrificial de varios substratos propuestos. Los resultados de los procedimientos de ataque se presentan y se describe la optimización de las técnicas para la fabricación de estructuras suspendidas de NCD y materiales III-N. En un capítulo posterior se estudia el crecimiento de AlN por pulverización catódica. Como se ha calculado en esta disertación para obtener una actuación eficiente de MEMS, las capas de AlN han de ser finas, típicamente d < 200 nm, lo que supone serias dificultades para la obtención de capas orientadas con respuesta piezoeléctrica. Las condiciones de depósito se han mapeado para identificar las fronteras que proporcionan el crecimiento de material orientado desde los primeros pasos del proceso. Además, durante la optimización de los procesos de ataque se estudió un procedimiento para fabricar películas de GaN nanoporoso. Estas capas porosas pueden servir como capas sacrificiales para la fabricación de estructuras suspendidas de GaN con baja tensión residual o como capas para mejorar la funcionalización superficial de sensores químicos o biológicos. El proceso de inducción de poros se discutirá y también se presentarán experimentos de ataque y funcionalización. En segundo lugar, se han determinado las propiedades mecánicas del NCD y de los materiales III-N. Se han fabricado varias estructuras suspendidas para la medición del módulo de Young y de la tensión residual. Además, las estructuras de NCD se midieron en resonancia para calcular el rendimiento de los dispositivos en términos de frecuencia y factor de calidad. Se identificaron los factores intrínsecos y extrínsecos que limitan ambas figuras de mérito y se han desarrollado modelos para considerar estas imperfecciones en las etapas de diseño de los dispositivos. Por otra parte, los materiales III-N normalmente presentan grandes gradientes de deformación residual que causan la deformación de las estructuras al ser liberadas. Se han medido y modelado estos efectos para los tres materiales binarios del sistema para proporcionar puntos de interpolación que permitan predecir las características de las aleaciones del sistema III-N. Por último, los datos recabados se han usado para desarrollar modelos analíticos y numéricos para el diseño de varios dispositivos. Se han estudiado las propiedades de transducción y se proporcionan topologías optimizadas. En el último capítulo de esta disertación se presentan diseños optimizados de los siguientes dispositivos: _ Traviesas y voladizos de AlN=NCD con actuación piezoeléctrica aplicados a nanoconmutadores de RF para señales de alta potencia. _ Membranas circulares de AlN=NCD con actuación piezoeléctrica aplicadas a lentes sintonizables. _ Filtros ópticos Fabry-Pérot basados en cavidades aéreas y membranas de GaN actuadas electrostáticamente. En resumen, se han desarrollado unos nuevos procedimientos optimizados para la fabricación de estructuras de NCD y materiales III-N. Estas técnicas se han usado para producir estructuras que llevaron a la determinación de las principales propiedades mecánicas y de los parámetros de los dispositivos necesarios para el diseño de MEMS. Finalmente, los datos obtenidos se han usado para el diseño optimizado de varios dispositivos demostradores. ABSTRACT Micro Electro Mechanical Systems (MEMS) have proven to be a successful family of devices that can be used as a platform for the development of devices with applications in optics, communications, signal processing and sensorics. Standard MEMS devices are usually fabricated using silicon based materials. However, the performance of these MEMS can be improved if other material systems are used. For instance, nanocrystalline diamond (NCD) offers excellent mechanical properties, optical transparency and ease of surface functionalization. On the other hand, the (In; Ga; Al)N material system, the III-N materials, can be used to produce single crystal structures with high mechanical and chemical sensitivity. Also, AlN can be deposited by reactive sputtering on various substrates, including NCD, to form oriented polycrystalline layers with high piezoelectric response. In addition, both NCD and III-N materials exhibit high thermal and chemical stability, which makes these material the perfect choice for the development of devices for high temperatures, harsh environments and even biocompatible applications. In this thesis these materials have been used for the design and measurement of technological demonstrators. Three main objectives have been pursued: _ Development of suitable fabrication processes. _ Measurement of the material mechanical properties and device performance limiting factors. _ Use the gathered data to design complex demonstrator devices. In a first part of the thesis several fabrication processes have been addressed. The stability of these materials hinders the etching of the layers and hampers the production of free standing structures. The first chapters of this dissertation are devoted to the development of a dry patterning etching process and to sacrificial etching optimization of several proposed substrates. The results of the etching processes are presented and the optimization of the technique for the manufacturing of NCD and III-N free standing structures is described. In a later chapter, sputtering growth of thin AlN layers is studied. As calculated in this dissertation, for efficient MEMS piezoelectric actuation the AlN layers have to be very thin, typically d < 200 nm, which poses serious difficulties to the production of c-axis oriented material with piezoelectric response. The deposition conditions have been mapped in order to identify the boundaries that give rise to the growth of c-axis oriented material from the first deposition stages. Additionally, during the etching optimization a procedure for fabricating nanoporous GaN layers was also studied. Such porous layers can serve as a sacrificial layer for the release of low stressed GaN devices or as a functionalization enhancement layer for chemical and biological sensors. The pore induction process will be discussed and etching and functionalization trials are presented. Secondly, the mechanical properties of NCD and III-N materials have been determined. Several free standing structures were fabricated for the measurement of the material Young’s modulus and residual stress. In addition, NCD structures were measured under resonance in order to calculate the device performance in terms of frequency and quality factor. Intrinsic and extrinsic limiting factors for both figures were identified and models have been developed in order to take into account these imperfections in the device design stages. On the other hand, III-N materials usually present large strain gradients that lead to device deformation after release. These effects have been measured and modeled for the three binary materials of the system in order to provide the interpolation points for predicting the behavior of the III-N alloys. Finally, the gathered data has been used for developing analytic and numeric models for the design of various devices. The transduction properties are studied and optimized topologies are provided. Optimized design of the following devices is presented at the last chapter of this dissertation: _ AlN=NCD piezoelectrically actuated beams applied to RF nanoswitches for large power signals. _ AlN=NCD piezoelectrically actuated circular membranes applied to tunable lenses. _ GaN based air gap tunable optical Fabry-Pérot filters with electrostatic actuation. On the whole, new optimized fabrication processes has been developed for the fabrication of NCD and III-N MEMS structures. These processing techniques was used to produce structures that led to the determination of the main mechanical properties and device parameters needed for MEMS design. Lastly, the gathered data was used for the design of various optimized demonstrator devices.
Resumo:
El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.
Resumo:
El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.