529 resultados para Capas protectoras
Resumo:
This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.
Resumo:
This thesis investigates the acoustic properties of microperforated panels as an alternative to passive noise control. The first chapters are devoted to the review of analytical models to obtain the acoustic impedance and absorption coefficient of perforated panels. The use of panels perforated with circular holes or with slits is discussed. The theoretical models are presented and some modifications are proposed to improve the modeling of the physical phenomena occurring at the perforations of the panels. The absorption band is widened through the use of multiple layer microperforated panels and/or the combination of a millimetric panel with a porous layer that can be a fibrous material or a nylon mesh. A commercial micrometric mesh downstream a millimetric panel is proposed as a very efficient and low cost solution for controlling noise in reduced spaces. The simulated annealing algorithm is used in order to optimize the panel construction to provide a maximum of absorption in a determined wide band frequency range. Experiments are carried out at normal sound incidence and plane waves. One example is shown for a double layer microperforated panel subjected to grazing flow. A good agreement is achieved between the theory and the experiments. RESUMEN En esta tesis se investigan las propiedades acústicas de paneles micro perforados como una alternativa al control pasivo del ruido. Los primeros capítulos están dedicados a la revisión de los modelos de análisis para obtener la impedancia acústica y el coeficiente de absorción de los paneles perforados. El uso de paneles perforados con agujeros circulares o con ranuras es discutido. Se presentan diferentes modelos y se proponen algunas modificaciones para mejorar la modelización de los fenómenos físicos que ocurren en las perforaciones. La banda de absorción se ensancha a través del uso de capas múltiples de paneles micro perforados y/o la combinación de un panel de perforaciones milimétricas combinado con una capa porosa que puede ser un material fibroso o una malla de nylon. Se propone el uso de una malla micrométrica detrás de un panel milimétrico como una solución económica y eficiente para el control del ruido en espacios reducidos. El algoritmo de recocido simulado se utiliza con el fin de optimizar la construcción de paneles micro perforados para proporcionar un máximo de absorción en una banda determinada frecuencias. Los experimentos se llevan a cabo en la incidencia normal de sonido y ondas planas. Se muestra un ejemplo de panel micro perforado de doble capa sometido a flujo rasante. Se consigue un buen acuerdo entre la teoría y los experimentos.
Resumo:
La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.
Resumo:
Esta memoria está basada en el crecimiento y caracterización de heteroestructuras Al(Ga)N/GaN y nanocolumnas ordenadas de GaN, y su aplicación en sensores químicos. El método de crecimiento ha sido la epitaxia de haces moleculares asistida por plasma (PAMBE). En el caso de las heteroestructuras Al(Ga)N/GaN, se han crecido barreras de distinto espesor y composición, desde AlN de 5 nm, hasta AlGaN de 35 nm. Además de una caracterización morfológica, estructural y eléctrica básica de las capas, también se han fabricado a partir de ellas dispositivos tipo HEMTs. La caracterización eléctrica de dichos dispositivos (carga y movilidad de en el canal bidimensional) indica que las mejores heteroestructuras son aquellas con un espesor de barrera intermedio (alrededor de 20 nm). Sin embargo, un objetivo importante de esta Tesis ha sido verificar las ventajas que podían tener los sensores basados en heteroestructuras AlN/GaN (frente a los típicos basados en AlGaN/GaN), con espesores de barrera muy finos (alrededor de 5 nm), ya que el canal de conducción que se modula por efecto de cambios químicos está más cerca de la superficie en donde ocurren dichos cambios químicos. De esta manera, se han utilizado los dispositivos tipo HEMTs como sensores químicos de pH (ISFETs), y se ha comprobado la mayor sensibilidad (variación de corriente frente a cambios de pH, Ids/pH) en los sensores basados en AlN/GaN frente a los basados en AlGaN/GaN. La mayor sensibilidad es incluso más patente en aplicaciones en las que no se utiliza un electrodo de referencia. Se han fabricado y caracterizado dispositivos ISFET similares utilizando capas compactas de InN. Estos sensores presentan peor estabilidad que los basados en Al(Ga)N/GaN, aunque la sensibilidad superficial al pH era la misma (Vgs/pH), y su sensibilidad en terminos de corriente de canal (Ids/pH) arroja valores intermedios entre los ISFET basados en AlN/GaN y los valores de los basados en AlGaN/GaN. Para continuar con la comparación entre dispositivos basados en Al(Ga)N/GaN, se fabricaron ISFETs con el área sensible más pequeña (35 x 35 m2), de tamaño similar a los dispositivos destinados a las medidas de actividad celular. Sometiendo los dispositivos a pulsos de voltaje en su área sensible, la respuesta de los dispositivos de AlN presentaron menor ruido que los basados en AlGaN. El ruido en la corriente para dispositivos de AlN, donde el encapsulado no ha sido optimizado, fue tan bajo como 8.9 nA (valor rms), y el ruido equivalente en el potencial superficial 38.7 V. Estos valores son más bajos que los encontrados en los dispositivos típicos para la detección de actividad celular (basados en Si), y del orden de los mejores resultados encontrados en la literatura sobre AlGaN/GaN. Desde el punto de vista de la caracterización electro-química de las superficies de GaN e InN, se ha determinado su punto isoeléctrico. Dicho valor no había sido reportado en la literatura hasta el momento. El valor, determinado por medidas de “streaming potential”, es de 4.4 y 4 respectivamente. Este valor es una importante característica a tener en cuenta en sensores, en inmovilización electrostática o en la litografía coloidal. Esta última técnica se discute en esta memoria, y se aplica en el último bloque de investigación de esta Tesis (i.e. crecimiento ordenado). El último apartado de resultados experimentales de esta Tesis analiza el crecimiento selectivo de nanocolumnas ordenadas de GaN por MBE, utilizando mascaras de Ti con nanoagujeros. Se ha estudiado como los distintos parámetros de crecimiento (i.e. flujos de los elementos Ga y N, temperatura de crecimiento y diseño de la máscara) afectan a la selectividad y a la morfología de las nanocolumnas. Se ha conseguido con éxito el crecimiento selectivo sobre pseudosustratos de GaN con distinta orientación cristalina o polaridad; templates de GaN(0001)/zafiro, GaN(0001)/AlN/Si, GaN(000-1)/Si y GaN(11-20)/zafiro. Se ha verificado experimentalmente la alta calidad cristalina de las nanocolumnas ordenadas, y su mayor estabilidad térmica comparada con las capas compactas del mismo material. Las nanocolumnas ordenadas de nitruros del grupo III tienen una clara aplicación en el campo de la optoelectrónica, principalmente para nanoemisores de luz blanca. Sin embargo, en esta Tesis se proponen como alternativa a la utilización de capas compactas o nanocolumnas auto-ensambladas en sensores. Las nanocolumnas auto-ensambladas de GaN, debido a su alta razón superficie/volumen, son muy prometedoras en el campo de los sensores, pero su amplia dispersión en dimensiones (altura y diámetro) supone un problema para el procesado y funcionamiento de dispositivos reales. En ese aspecto, las nanocolumnas ordenadas son más robustas y homogéneas, manteniendo una alta relación superficie/volumen. Como primer experimento en el ámbito de los sensores, se ha estudiado como se ve afectada la emisión de fotoluminiscencia de las NCs ordenadas al estar expuestas al aire o al vacio. Se observa una fuerte caída en la intensidad de la fotoluminiscencia cuando las nanocolumnas están expuestas al aire (probablemente por la foto-adsorción de oxigeno en la superficie), como ya había sido documentado anteriormente en nanocolumnas auto-ensambladas. Este experimento abre el camino para futuros sensores basados en nanocolumnas ordenadas. Abstract This manuscript deals with the growth and characterization of Al(Ga)N/GaN heterostructures and GaN ordered nanocolumns, and their application in chemical sensors. The growth technique has been the plasma-assisted molecular beam epitaxy (PAMBE). In the case of Al(Ga)N/GaN heterostructures, barriers of different thickness and composition, from AlN (5 nm) to AlGaN (35 nm) have been grown. Besides the basic morphological, structural and electrical characterization of the layers, HEMT devices have been fabricated based on these layers. The best electrical characteristics (larger carriers concentration and mobility in the two dimensional electron gas) are those in AlGaN/GaN heterostructures with a medium thickness (around 20 nm). However, one of the goals of this Thesis has been to verify the advantages that sensors based on AlN/GaN (thickness around 7 nm) have compared to standard AlGaN/GaN, because the conduction channel to be modulated by chemical changes is closer to the sensitive area. In this way, HEMT devices have been used as chemical pH sensors (ISFETs), and the higher sensitivity (conductance change related to pH changes, Ids/pH) of AlN/GaN based sensors has been proved. The higher sensibility is even more obvious in application without reference electrode. Similar ISFETs devices have been fabricated based on InN compact layers. These devices show a poor stability, but its surface sensitivity to pH (Vgs/pH) and its sensibility (Ids/pH) yield values between the corresponding ones of AlN/GaN and AlGaN/GaN heterostructures. In order to a further comparison between Al(Ga)N/GaN based devices, ISFETs with smaller sensitive area (35 x 35 m2), similar to the ones used in cellular activity record, were fabricated and characterized. When the devices are subjected to a voltage pulse through the sensitive area, the response of AlN based devices shows lower noise than the ones based on AlGaN. The noise in the current of such a AlN based device, where the encapsulation has not been optimized, is as low as 8.9 nA (rms value), and the equivalent noise to the surface potential is 38.7 V. These values are lower than the found in typical devices used for cellular activity recording (based on Si), and in the range of the best published results on AlGaN/GaN. From the point of view of the electrochemical characterization of GaN and InN surfaces, their isoelectric point has been experimentally determined. Such a value is the first time reported for GaN and InN surfaces. These values are determined by “streaming potential”, being pH 4.4 and 4, respectively. Isoelectric point value is an important characteristic in sensors, electrostatic immobilization or in colloidal lithography. In particular, colloidal lithography has been optimized in this Thesis for GaN surfaces, and applied in the last part of experimental results (i.e. ordered growth). The last block of this Thesis is focused on the selective area growth of GaN nanocolumns by MBE, using Ti masks decorated with nanoholes. The effect of the different growth parameters (Ga and N fluxes, growth temperature and mask design) is studied, in particular their impact in the selectivity and in the morphology of the nanocolumns. Selective area growth has been successful performed on GaN templates with different orientation or polarity; GaN(0001)/sapphire, GaN(0001)/AlN/Si, GaN(000- 1)/Si and GaN(11-20)/sapphire. Ordered nanocolumns exhibit a high crystal quality, and a higher thermal stability (lower thermal decomposition) than the compact layers of the same material. Ordered nanocolumns based on III nitrides have a clear application in optoelectronics, mainly for white light nanoemitters. However, this Thesis proposes them as an alternative to compact layers and self-assembled nanocolumns in sensor applications. Self-assembled GaN nanocolumns are very appealing for sensor applications, due to their large surface/volume ratio. However, their large dispersion in heights and diameters are a problem in terms of processing and operation of real devices. In this aspect, ordered nanocolumns are more robust and homogeneous, keeping the large surface/volume ratio. As first experimental evidence of their sensor capabilities, ordered nanocolumns have been studied regarding their photoluminiscence on air and vacuum ambient. A big drop in the intensity is observed when the nanocolumns are exposed to air (probably because of the oxygen photo-adsortion), as was already reported in the case of self-assembled nanocolumns. This opens the way to future sensors based on ordered III nitrides nanocolumns.
Resumo:
La tesis estudia el Pabellón de los Países Nórdicos (1958-1962), uno de los ejemplos más significativos de la obra del arquitecto Sverre Fehn (1924-2009). El Pabellón es el resultado de la obtención del primer premio en el concurso de ideas restringido convocado en 1958 por un comité formado por los gobiernos de Suecia, Finlandia y Noruega, cuya finalidad era la creación de un espacio en el recinto de la Bienal de Venecia que albergara las exposiciones bianuales de estos paises. El elemento más característico de esta obra es su cubierta, un tamiz denso de dos capas de vigas de hormigón superpuestas que se interrumpe puntualmente para permitir el paso de los árboles que viven en su interior. Su espesor de dos metros bloquea los rayos de luz directa de forma que se genera un plano de iluminación difusa. Esta configuración de la cubierta resuelve los dos condicionantes principales del proyecto: la creación de un espacio expositivo flexible y la preservación de los árboles de mayor porte. Bajo el plano superior filtrante, se genera un espacio horizontal en continuidad física y sensorial con la arboleda en la que se asienta, caracterizado por la variación lumínica a lo largo del día. Los objetivos de esta tesis son contribuir a un conocimiento amplio y riguroso del Pabellón Nórdico, y explicar el singular espacio que propone. Para lograr estos objetivos, el primer paso ha consistido en la elaboración de las bases del estudio de esta obra, mediante la recopilación y selección de la documentación existente -que en gran parte permanece inédita hasta la fecha- y la aportación de nuevos planos que completen fases no documentadas: el estado construído y el estado actual de la obra. Se parte de la hipótesis de que todas las decisiones de proyecto -el vínculo con el lugar, la incorporación de las preexistencias, la respuesta al programa y la construcción- son consecuencia de la acción de la cubierta y se derivan del hecho de la filtración de la luz. En el Pabellón, la iluminación cenital y espacio horizontal en continuidad con el entorno se aunan de forma insólita. El curso de la investigación está guiado por la búsqueda de las cualidades de un espacio planteado con su límite superior permeable -cubierta filtrante- y por el debilitamiento de algunos de sus límites verticales. La tesis se estructura en tres capítulos principales -crónica, re-construcción y re-lectura-, que abordan la descripción, el análisis y la síntesis del Pabellón de acuerdo con la metodología de la investigación seguida. La crónica se dedica a la descripción exhaustiva de la sede nórdica desde varios puntos de vista. El objetivo de este capítulo es el de ubicar la obra en su contexto y facilitar la comprensión del conjunto de los aspectos y condicionantes que determinaron la formalización del Pabellón. El capítulo comienza con una síntesis de las circunstancias que desencadenaron la convocatoria del concurso. El apartado pormenoriza el programa propuesto por el comité nórdico y las propuestas presentadas por cada uno de los arquitectos invitados a participar en el concurso de cada país promotor: el noruego Sverre Fehn, el sueco Klas Anshelm y el finés Reima Piëtila. A continuación se explica el desarrollo y evolución del proyecto de Fehn y las fases que atraviesa la obra hasta su materialización, así como los cambios y modificaciones más relevantes que el edificio ha experimentado hasta nuestros días. Este apartado finaliza con una descripción de la sede como espacio expositivo desde su inauguración hasta la actualidad y cómo se ha ido adaptando a tal uso. La re-construcción aborda el análisis de la obra a partir de la disección de su identidad en cuatro aspectos elementales: su relación con el lugar y las preexistencias, la respuesta que el proyecto ofrece al programa planteado, las cualidades del espacio que genera la luz filtrada por la cubierta y la construcción desde los puntos de vista del proceso, el sistema y la materialidad. En estas parcelas se pretende identificar los elementos que constituyen la naturaleza, la organización espacial y la formalización del Pabellón y veremos que todos ellos están relacionados con su singular cubierta y con el fenómeno de la filtración de la luz. La re-lectura ofrece una mirada crítica del Pabellón en base a un análisis comparativo de la obra con un panorama de referencias que plantean los mismos temas arquitectónicos. En este capítulo se busca profundizar en los aspectos fundamentales del proyecto que se derivan del estudio realizado previamente, y así obtener una lectura más profunda los conceptos desarrollados por Fehn y su alcance. Uno de los temas de mayor importancia que acomete Fehn en esta obra es la interacción entre arquitectura y árbol. Se revisa la incidencia que tiene sobre el trazado de la planta la ocupación previa de árboles en el solar, así como las diferentes posturas que adopta la arquitectura ante este hecho. Se estudian algunos casos representativos de obras que establecen un vínculo de interdependencia con la fronda preexistente y la incorporan al proyecto como un estrato más del límite. Por último, se enumeran las consecuencias de la incorporación del árbol al espacio interior y las dificultades o beneficios que surgen de esta coexistencia. El segundo gran tema que se deriva del estudio del Pabellón es la búsqueda de un espacio expositivo flexible basado en la diafanidad, la iluminación natural homogénea y la apertura física al parque. En primer lugar se analiza la planta liberada de las servidumbres de estructura, instalaciones, espacios servidores y accesos fijos como soporte de la versatilidad de uso, así como la ocupación del espacio diáfano. En segundo lugar establecemos un análisis comparativo de la configuración del filtro lumínico en otras cubiertas que, al igual que el Pabellón, también persiguen la generación de una iluminación homogénea. Por último se analiza el grado de apertura física del espacio interior al exterior y los niveles de relación que se establecen con el espacio público circundante. La relectura finaliza con el estudio del Pabellón en el contexto de los espacios expositivos de Sverre Fehn para comprender la singularidad de este edificio en el conjunto de la obra del arquitecto noruego y comprobar cómo se plantean en los casos estudiados la exhibición del objeto, el recorrido y la luz. El desarrollo de esta tesis en torno al Pabellón está motivada por la consideración de que constituye un ejemplo en el que se condensan valores fundamentales de la arquitectura. Esta obra propone un espacio antimonumental que interactúa con las personas y que está caracterizada por la manipulación de los límites físicos, el compromiso con el programa, las preexistencias y el lugar donde se implanta. Representa un proyecto rotundo cuya estructura y sistema de relaciones se fundamenta en el plano de la realidad concreta.
Resumo:
El gran desarrollo industrial y demográfico de las últimas décadas ha dado lugar a un consumo crecientemente insostenible de energía y materias primas, que influye negativamente en el ambiente por la gran cantidad de contaminantes generados. Entre las emisiones tienen gran importancia los compuestos orgánicos volátiles (COV), y entre ellos los compuestos halogenados como el tricloroetileno, debido a su elevada toxicidad y resistencia a la degradación. Las tecnologías generalmente empleadas para la degradación de estos compuestos presentan inconvenientes derivados de la generación de productos tóxicos intermedios o su elevado coste. Dentro de los procesos avanzados de oxidación (Advanced Oxidation Processes AOP), la fotocatálisis resulta una técnica atractiva e innovadora de interés creciente en su aplicación para la eliminación de multitud de compuestos orgánicos e inorgánicos, y se ha revelado como una tecnología efectiva en la eliminación de compuestos orgánicos volátiles clorados como el tricloroetileno. Además, al poder aprovechar la luz solar como fuente de radiación UV permite una reducción significativa de costes energéticos y de operación. Los semiconductores más adecuados para su empleo como fotocatalizadores con aprovechamiento de la luz solar son aquellos que tienen una banda de energía comparable a la de los fotones de luz visible o, en su defecto, de luz ultravioleta A (Eg < 3,5 eV), siendo el más empleado el dióxido de titanio (TiO2). El objetivo principal de este trabajo es el estudio de polímeros orgánicos comerciales como soporte para el TiO2 en fotocatálisis heterogénea y su ensayo para la eliminación de tricloroetileno en aire. Para ello, se han evaluado sus propiedades ópticas y su resistencia a la fotodegradación, y se ha optimizado la fijación del fotocatalizador para conseguir un recubrimiento homogéneo, duradero y con elevada actividad fotocatalítica en diversas condiciones de operación. Los materiales plásticos ensayados fueron el polietileno (PE), copolímero de etil vinil acetato con distintos aditivos (EVA, EVA-H y EVA-SH), polipropileno (PP), polimetil (metacrilato) fabricado en colada y extrusión (PMMA-C y PMMA-E), policarbonato compacto y celular (PC-C y PC-Ce), polivinilo rígido y flexible (PVC-R y PVC-F), poliestireno (PS) y poliésteres (PET y PETG). En base a sus propiedades ópticas se seleccionaron el PP, PS, PMMA-C, EVA-SH y PVC-R, los cuales mostraron un valor de transmitancia superior al 80% en el entorno de la región estudiada (λ=365nm). Para la síntesis del fotocatalizador se empleó la tecnología sol-gel y la impregnación multicapa de los polímeros seleccionados por el método de dip-coating con secado intermedio a temperaturas moderadas. Con el fin de evaluar el envejecimiento de los polímeros bajo la radiación UV, y el efecto sobre éste del recubrimiento fotoactivo, se realizó un estudio en una cámara de exposición a la luz solar durante 150 días, evaluándose la resistencia química y la resistencia mecánica. Los resultados de espectroscopía infrarroja y del test de tracción tras el envejecimiento revelaron una mayor resistencia del PMMA y una degradación mayor en el PS, PVC-R y EVA SH, con una apreciable pérdida del recubrimiento en todos los polímeros. Los fotocatalizadores preparados sobre soportes sin tratamiento y con tres capas de óxido de titanio mostraron mejores resultados de actividad con PMMA-C, PET y PS, con buenos resultados de mineralización. Para conseguir una mayor y mejor fijación de la película al soporte se realizaron tratamientos químicos abrasivos con H2SO4 y NaOH y tratamientos de funcionalización superficial por tecnología de plasma a presión atmosférica (APP) y a baja presión (LPP). Con los tratamientos de plasma se consiguió una excelente mojabilidad de los soportes, que dio lugar a una distribución uniforme y más abundante del fotocatalizador, mientras que con los tratamientos químicos no se obtuvo una mejora significativa. Asimismo, se prepararon fotocatalizadores con una capa previa de dióxido de silicio con la intervención de surfactantes (PDDA-SiO2-3TiO2 y SiO2FC-3TiO2), consiguiéndose buenas propiedades de la película en todos los casos. Los mejores resultados de actividad con tratamiento LPP y tres capas de TiO2 se lograron con PMMA-C (91% de conversión a 30 ppm de TCE y caudal 200 ml·min-1) mejorando significativamente también la actividad fotocatalítica en PVC-R y PS. Sin embargo, el material más activo de todos los ensayados fue el PMMA-C con el recubrimiento SiO2FC-3TiO2, logrando el mejor grado de mineralización, del 45%, y una velocidad de 1,89 x 10-6 mol· m-2 · s-1, que dio lugar a la eliminación del 100 % del tricloroetileno en las condiciones anteriormente descritas. A modo comparativo se realizaron ensayos de actividad con otro contaminante orgánico tipo, el formaldehído, cuya degradación fotocatalítica fue también excelente (100% de conversión y 80% de mineralización con 24 ppm de HCHO en un caudal de aire seco de 200 ml·min-1). Los buenos resultados de actividad obtenidos confirman las enormes posibilidades que ofrecen los polímeros transparentes en el UV-A como soportes del dióxido de titanio para la eliminación fotocatalítica de contaminantes en aire. ABSTRACT The great industrial and demographic development of recent decades has led to an unsustainable increase of energy and raw materials consumption that negatively affects the environment due to the large amount of waste and pollutants generated. Between emissions generated organic compounds (VOCs), specially the halogenated ones such as trichloroethylene, are particularly important due to its high toxicity and resistance to degradation. The technologies generally used for the degradation of these compounds have serious inconveniences due to the generation of toxic intermediates turn creating the problem of disposal besides the high cost. Among the advanced oxidation processes (AOP), photocatalysis is an attractive and innovative technique with growing interest in its application for the removal of many organic and inorganic compounds, and has emerged as an effective technology in eliminating chlorinated organic compounds such as trichloroethylene. In addition, as it allows the use of sunlight as a source of UV radiation there is a significant reduction of energy costs and operation. Semiconductors suitable to be used as photocatalyst activated by sunlight are those having an energy band comparable to that of the visible or UV-A light (Eg <3,5 eV), being titanium dioxide (TiO2), the most widely used. The main objective of this study is the test of commercial organic polymers as supports for TiO2 to be applied in heterogeneous photocatalysis and its assay for removing trichloroethylene in air. To accomplish that, its optical properties and resistance to photooxidation have been evaluated, and different operating conditions have been tested in order to optimize the fixation of the photocatalyst to obtain a homogeneous coating, with durable and high photocatalytic activity. The plastic materials tested were: polyethylene (PE), ethyl vinyl acetace copolymers with different additives (EVA, EVA-H and EVA -SH), polypropylene (PP), poly methyl (methacrylate) manufactured by sheet moulding and extrusion (PMMA-C and PMMA-E), compact and cellular polycarbonates (PC-C PC-Ce), rigid and flexible polyvinyl chloride (PVC-R and PVC-F), polystyrene (PS) and polyesters (PET and PETG). On the basis of their optical properties PP, PS, PMMA-C, EVA-SH and PVC-R were selected, as they showed a transmittance value greater than 80% in the range of the studied region (λ = 365nm). For the synthesis of the photocatalyst sol-gel technology was employed with multilayers impregnation of the polymers selected by dip-coating, with intermediate TiO2 drying at moderate temperatures. To evaluate the polymers aging due to UV radiation, and the effect of photoactive coating thereon, a study in an sunlight exposure chamber for 150 days was performed, evaluating the chemical resistance and the mechanical strength. The results of infrared spectroscopy and tensile stress test after aging showed the PMMA is the most resistant sample, but a greater degradation in PS, PVC-R and EVA SH, with a visible loss of the coating in all the polymers tested. The photocatalysts prepared on the untreated substrates with three layers of TiO2 showed better activity results when PMMA-C, PET and PS where used. To achieve greater and better fixation of the film to the support, chemical abrasive treatments, with H2SO4 and NaOH, as well as surface functionalization treatments with atmospheric pressure plasma (APP) and low pressure plasma (LPP) technologies were performed. The plasma treatment showed the best results, with an excellent wettability of the substrates that lead to a better and uniform distribution of the photocatalyst compared to the chemical treatments tested, in which no significant improvement was obtained. Also photocatalysts were prepared with the a silicon dioxide previous layer with the help of surfactants (SiO2- 3TiO2 PDDA-and-3TiO2 SiO2FC), obtaining good properties of the film in all cases. The best activity results for LPP-treated samples with three layers of TiO2 were achieved with PMMA-C (91% conversion, in conditions of 30 ppm of TCE and 200 ml·min-1 air flow rate), with a significant improvement of the photocatalytic activity in PVC-R and PS samples too. However, among all the materials assayed, PMMA-C with SiO2FC-3TiO2 coating was the most active one, achieving the highest mineralization grade (45%) and a reaction rate of 1,89 x 10-6 mol· m-2 · s-1, with total trichloroethylene elimination in the same conditions. As a comparative assay, an activity test was also performed with another typical organic contaminant, formaldehyde, also with good results (100% conversion with 24 ppm of HCHO and 200 ml·min-1 gas flow rate). The good activity results obtained in this study confirm the great potential of organic polymers which are transparent in the UV-A as supports for titanium dioxide for photocatalytic removal of air organic pollutants.
Resumo:
Separated transitional boundary layers appear on key aeronautical processes such as the flow around wings or turbomachinery blades. The aim of this thesis is the study of these flows in representative scenarios of technological applications, gaining knowledge about phenomenology and physical processes that occur there and, developing a simple model for scaling them. To achieve this goal, experimental measurements have been carried out in a low speed facility, ensuring the flow homogeneity and a low disturbances level such that unwanted transitional mechanisms are avoided. The studied boundary layers have been developed on a flat plate, by imposing a pressure gradient by means of contoured walls. They generate an initial acceleration region followed by a deceleration zone. The initial region is designed to obtain at the beginning of the deceleration the Blasius profile, characterized by its momentum thickness, and an edge boundary layer velocity, defining the problem characteristic velocity. The deceleration region is designed to obtain a linear evolution of the edge velocity, thereby defining the characteristic length of the problem. Several experimental techniques, both intrusive (hot wire anemometry, total pressure probes) as nonintrusive (PIV and LDV anemometry, high-speed filming), have been used in order to take advantage of each of them and allow cross-validation of the results. Once the boundary layer at the deceleration beginning has been characterized, ensuring the desired integral parameters and level of disturbance, the evolution of the laminar boundary layer up to the point of separation is studied. It has been compared with integral methods, and numerical simulations. In view of the results a new model for this evolution is proposed. Downstream from the separation, the flow near to the wall is configured as a shear layer that encloses low momentum recirculating fluid. The region where the shear layer remains laminar tends to be positioned to compensate the adverse pressure gradient associated with the imposed deceleration. Under these conditions, the momentum thickness remains almost constant. This laminar shear layer region extends up to where transitional phenomena appear, extension that scales with the momentum thickness at separation. These transitional phenomena are of inviscid type, similar to those found in free shear layers. The transitional region analysis begins with a study of the disturbances evolution in the linear growth region and the comparison of experimental results with a numerical model based on Linear Stability Theory for parallel flows and with data from other authors. The results’ coalescence for both the disturbances growth and the excited frequencies is stated. For the transition final stages the vorticity concentration into vortex blobs is found, analogously to what happens in free shear layers. Unlike these, the presence of the wall and the pressure gradient make the large scale structures to move towards the wall and quickly disappear under certain circumstances. In these cases, the recirculating flow is confined into a closed region saying the bubble is closed or the boundary layer reattaches. From the reattachment point, the fluid shows a configuration in the vicinity of the wall traditionally considered as turbulent. It has been observed that existing integral methods for turbulent boundary layers do not fit well to the experimental results, due to these methods being valid only for fully developed turbulent flow. Nevertheless, it has been found that downstream from the reattachment point the velocity profiles are self-similar, and a model has been proposed for the evolution of the integral parameters of the boundary layer in this region. Finally, the phenomenon known as bubble burst is analyzed. It has been checked the validity of existing models in literature and a new one is proposed. This phenomenon is blamed to the inability of the large scale structures formed after the transition to overcome with the adverse pressure gradient, move towards the wall and close the bubble. El estudio de capas límites transicionales con separación es de gran relevancia en distintas aplicaciones tecnológicas. Particularmente, en tecnología aeronáutica, aparecen en procesos claves, tales como el flujo alrededor de alas o álabes de turbomaquinaria. El objetivo de esta tesis es el estudio de estos flujos en situaciones representativas de las aplicaciones tecnológicas, ganando por un lado conocimiento sobre la fenomenología y los procesos físicos que aparecen y, por otra parte, desarrollando un modelo sencillo para el escalado de los mismos. Para conseguir este objetivo se han realizado ensayos en una instalación experimental de baja velocidad específicamente diseñada para asegurar un flujo homogéneo y con bajo nivel de perturbaciones, de modo que se evita el disparo de mecanismos transicionales no deseados. La capa límite bajo estudio se ha desarrollado sobre una placa plana, imponiendo un gradiente de presión a la misma por medio de paredes de geometría especificada. éstas generan una región inicial de aceleración seguida de una zona de deceleración. La región inicial se diseña para tener en al inicio de la deceleración un perfil de capa límite de Blasius, caracterizado por su espesor de cantidad de movimiento, y una cierta velocidad externa a la capa límite que se considera la velocidad característica del problema. La región de deceleración está concebida para que la variación de la velocidad externa a la capa límite sea lineal, definiendo de esta forma una longitud característica del problema. Los ensayos se han realizado explotando varias técnicas experimentales, tanto intrusivas (anemometría de hilo caliente, sondas de presión total) como no intrusivas (anemometrías láser y PIV, filmación de alta velocidad), de cara a aprovechar las ventajas de cada una de ellas y permitir validación cruzada de resultados entre las mismas. Caracterizada la capa límite al comienzo de la deceleración, y garantizados los parámetros integrales y niveles de perturbación deseados se procede al estudio de la zona de deceleración. Se presenta en la tesis un análisis de la evolución de la capa límite laminar desde el inicio de la misma hasta el punto de separación, comparando con métodos integrales, simulaciones numéricas, y proponiendo un nuevo modelo para esta evolución. Aguas abajo de la separación, el flujo en las proximidades de la pared se configura como una capa de cortadura que encierra una región de fluido recirculatorio de baja cantidad de movimiento. Se ha caracterizado la región en que dicha capa de cortadura permanece laminar, encontrando que se posiciona de modo que compensa el gradiente adverso de presión asociado a la deceleración de la corriente. En estas condiciones, el espesor de cantidad de movimiento permanece prácticamente constante y esta capa de cortadura laminar se extiende hasta que los fenómenos transicionales aparecen. Estos fenómenos son de tipo no viscoso, similares a los que aparecen en una capa de cortadura libre. El análisis de la región transicional comienza con un estudio de la evolución de las vii viii RESUMEN perturbaciones en la zona de crecimiento lineal de las mismas y la comparación de los resultados experimentales con un modelo numérico y con datos de otros autores. La coalescencia de los resultados tanto para el crecimiento de las perturbaciones como para las frecuencias excitadas queda demostrada. Para los estadios finales de la transición se observa la concentración de la vorticidad en torbellinos, de modo análogo a lo que ocurre en capas de cortadura libres. A diferencia de estas, la presencia de la pared y del gradiente de presión hace que, bajo ciertas condiciones, la gran escala se desplace hacia la pared y desaparezca rápidamente. En este caso el flujo recirculatorio queda confinado en una región cerrada y se habla de cierre de la burbuja o readherencia de la capa límite. A partir del punto de readherencia se tiene una configuración fluida en las proximidades de la pared que tradicionalmente se ha considerado turbulenta. Se ha observado que los métodos integrales existentes para capas límites turbulentas no ajustan bien a las medidas experimentales realizadas, hecho imputable a que no se obtiene en dicha región un flujo turbulento plenamente desarrollado. Se ha encontrado, sin embargo, que pasado el punto de readherencia los perfiles de velocidad próximos a la pared son autosemejantes entre sí y se ha propuesto un modelo para la evolución de los parámetros integrales de la capa límite en esta región. Finalmente, el fenómeno conocido como “estallido” de la burbuja se ha analizado. Se ha comprobado la validez de los modelos existentes en la literatura y se propone uno nuevo. Este fenómeno se achaca a la incapacidad de la gran estructura formada tras la transición para vencer el gradiente adverso de presión, desplazarse hacia la pared y cerrar la burbuja.
Resumo:
Durante los últimos años el flujo de datos en la transmisión que tiene lugar en los sistemas de comunicación ha aumentado considerablemente de forma que día a día se requieren más aplicaciones trabajando en un rango de frecuencias muy alto (3-30 GHz). Muchos de estos sistemas de comunicación incluyen dispositivos de onda acústica superficial (SAW) y por tanto se hace necesario el aumento de frecuencia a la que éstos trabajan. Pero este incremento de frecuencia de los dispositivos SAW no sólo es utilizado en los sistemas de comunicación, varios tipos de sensores, por ejemplo, aumentan su sensibilidad cuando la frecuencia a la que trabajan también lo hace. Tradicionalmente los dispositivos SAW se han fabricado sobre cuarzo, LiNbO3 y LiTaO3 principalmente. Sin embargo la principal limitación de estos materiales es su velocidad SAW. Además, debido a la alta temperatura a la que se depositan no pueden ser integrados en la tecnología de fabricación CMOS. El uso de la tecnología de capa delgada, en la que un material piezoeléctrico es depositado sobre un substrato, se está utilizando en las últimas décadas para incrementar la velocidad SAW de la estructura y poder obtener dispositivos trabajando en el rango de frecuencias requerido en la actualidad. Por otra parte, esta tecnología podría ser integrada en el proceso de fabricación CMOS. Durante esta tesis nos hemos centrado en la fabricación de dispositivos SAW trabajando a muy alta frecuencia. Para ello, utilizando la tecnología de capa delgada, hemos utilizado la estructura nitruro de aluminio (AlN) sobre diamante que permite conseguir velocidades SAW del sustrato que no se pueden alcanzar con otros materiales. El depósito de AlN se realizó mediante sputtering reactivo. Durante esta tesis se han realizado diferentes experimentos para optimizar dicho depósito de forma que se han obtenido los parámetros óptimos para los cuales se pueden obtener capas de AlN de alta calidad sobre cualquier tipo de sustrato. Además todo el proceso se realizó a baja temperatura para que el procesado de estos dispositivos pueda ser compatible con la tecnología CMOS. Una vez optimizada la estructura AlN/diamante, mediante litografía por haz de electrones se fabricaron resonadores SAW de tamaño nanométrico que sumado a la alta velocidad resultante de la combinación AlN/diamante nos ha permitido obtener dispositivos trabajando en el rango de 10-28 GHz con un alto factor de calidad y rechazo fuera de la banda. Estás frecuencias y prestaciones no han sido alcanzadas por el momento en resonadores de este tipo. Por otra parte, se han utilizado estos dispositivos para fabricar sensores de presión de alta sensibilidad. Estos dispositivos son afectados altamente por los cambios de temperatura. Se realizó también un exhaustivo estudio de cómo se comportan en temperatura estos resonadores, entre -250ºC y 250ºC (rango de temperaturas no estudiado hasta el momento) diferenciándose dos regiones una a muy baja temperatura en la que el dispositivo muestra un coeficiente de retraso en frecuencia (TCF) relativamente bajo y otra a partir de los -100ºC en la que el TCF es similar al observado en la bibliografía. Por tanto, durante esta tesis se ha optimizado el depósito de AlN sobre diamante para que sea compatible con la tecnología CMOS y permita el procesado de dispositivos trabajando a muy alta frecuencia con altas prestaciones para comunicaciones y sensores. ABSTRACT The increasing volume of information in data transmission systems results in a growing demand of applications working in the super-high-frequency band (3–30 GHz). Most of these systems work with surface acoustic wave (SAW) devices and thus there is a necessity of increasing their resonance frequency. Moreover, sensor application includes this kind of devices. The sensitivity of them is proportional with its frequency. Traditionally, quartz, LiNbO3 and LiTaO3 have been used in the fabrication of SAW devices. These materials suffer from a variety of limitations and in particular they have low SAW velocity as well as being incompatible with the CMOS technology. In order to overcome these problems, thin film technology, where a piezoelectric material is deposited on top of a substrate, has been used during the last decades. The piezoelectric/substrate structure allows to reach the frequencies required nowadays and could be compatible with the mass electronic production CMOS technology. This thesis work focuses on the fabrication of SAW devices working in the super-high-frequency range. Thin film technology has been used in order to get it, especially aluminum nitride (AlN) deposited by reactive sputtering on diamond has been used to increase the SAW velocity. Different experiments were carried out to optimize the parameters for the deposit of high quality AlN on any kind of substrates. In addition, the system was optimized under low temperature and thus this process is CMOS compatible. Once the AlN/diamond was optimized, thanks to the used e-beam lithography, nanometric SAW resonators were fabricated. The combination of the structure and the size of the devices allow the fabrication of devices working in the range of 10-28 GHz with a high quality factor and out of band rejection. These high performances and frequencies have not been reached so far for this kind of devices. Moreover, these devices have been used as high sensitivity pressure sensors. They are affected by temperature changes and thus a wide temperature range (-250ºC to 250ºC) study was done. From this study two regions were observed. At very low temperature, the temperature coefficient of frequency (TCF) is low. From -100ºC upwards the TCF is similar to the one appearing in the literature. Therefore, during this thesis work, the sputtering of AlN on diamond substrates was optimized for the CMOS compatible fabrication of high frequency and high performance SAW devices for communication and sensor application.
Resumo:
In this paper the Alpine cleavage affecting the Permo-Triassic series of the Espadan Range (Castellón) is studied. Cleavage affects to argillites and sandstones in Saxonian and Buntsandstein facies. At cartographic scale it is linked with the Espadan box anticline with constant ONO-ESE trend. At microscoscopic scale it constitutes a “spaced cleavage” with a predominance of pressure solution and passive rotation mechanisms. At outcrop scale the cleavage characterizes by a sigmoidal geometry linked both the post-cleavage flexural slip as a cleavage-related flexural flow mechanism. The proposed kinematic model to explain its origin includes three main stages: 1) incipient development of cleavage linked to layer-parallel shortening, 2) buckling and increasing of cleavage penetrativity and 3) folfing amplification and layer-parallel shear. RESUMEN Se estudia la esquistosidad alpina que afecta a la serie Permo-Triásica de la Sierra de Espadán, (Castellón). La esquistosidad afecta a los tramos argilíticos y areniscosos en facies Saxoniense y Buntsandstein, con distinto grado de penetratividad. A escala cartográfica se asocia al anticlinal de Espadán con geometría en cofre y orientación ONO-ESE. A escala microestructural se clasifica como esquistosidad espaciada con predominio de los mecanismos de disolución por presión y rotación mecánica de filosilicatos. A escala de afloramiento destaca la geometría sigmoidal de las superficies de esquistosidad atribuida tanto a un mecanismo post-esquistoso de flexodeslizamiento en las capas competentes como a flexofluencia sin-esquistosa en capas incompetentes. El modelo cinemático para su génesis contempla tres estadios: 1) desarrollo incipiente de esquistosidad en relación a acortamiento paralelo a las capas, 2) buckling e incremento del grado de penetratividad y 3) amplificación de los pliegues y cizalla simple paralela a las capas
Confined crystallization of nanolayered poly(ethylene terephthalate) using X-ray diffraction methods
Resumo:
The development of crystalline lamellae in ultra-thin layers of poly(ethylene terephthalate) PET confined between polycarbonate (PC) layers in an alternating assembly is investigated as a function of layer thickness by means of X-ray diffraction methods. Isothermal crystallization from the glassy state is in-situ followed by means of small-angle X-ray diffraction. It is found that the reduced size of the PET layers influences the lamellar nanostructure and induces a preferential lamellar orientation. Two lamellar populations, flat-on and edge-on, are found to coexist in a wide range of crystallization temperatures (Tc = 117–150 °C) and within layer thicknesses down to 35 nm. Flat-on lamellae appear at a reduced crystallization rate with respect to bulk PET giving rise to crystals of similar dimensions separated by larger amorphous regions. In addition, a narrower distribution of lamellar orientations develops when the layer thickness is reduced or the crystallization temperature is raised. In case of edge-on lamellae, crystallization conditions also influence the development of lamellar orientation; however, the latter is little affected by the reduced size of the layers. Results suggest that flat-on lamellae arise as a consequence of spatial confinement and edge-on lamellae could be generated due to the interactions with the PC interface. En este trabajo se investiga mediante difracción de rayos X a ángulos bajos (SAXS) y a ángulos altos (WAXS), la cristalización de láminas delgadas de Polietilén tereftalato (PET) confinadas entre láminas de Policarbonato (PC), tomando como referencia PET sin confinar. El espesor de las capas de PET varía entre 35nm y 115 nm. Se realizaron medidas de difracción a tres temperaturas de cristalización (117ºC, 132ºC y 150ºC) encontrándose que el reducido espesor de las capas de PET influye en la estructura lamelar que se desarrolla, induciendo una orientación preferente de las láminas. Se integró la intensidad difractada alrededor del máximo en SAXS para obtener una representación de la intensidad en función del ángulo acimutal. Mediante análisis de mínimos cuadrados se separó la curva experimental obtenida en tres contribuciones diferentes: una función Gausiana que describe la distribución de las orientaciones de las lamelas, una función lorenziana asociada a los máximos meridionales (asociados a las interfases PET-PC) y un background constante. Por otra parte la cantidad de material cristalizado se estimó asumiendo que la intensidad del background en el barrido acimutal, una vez restado el background del primer difractograma (sin máximos en SAXS) se asocia con la contribución del material isotrópico que resta en la muestra cristalizada. Se observa la coexistencia de dos poblaciones de lamelas: flat-on y edge-on. A medida que el espesor de las láminas de PET disminuye la población de las lamelas flat-on experimenta los siguientes cambios: 1) la distribución de orientación se estrecha, 2) la fracción de material cristalizado orientado aumenta, 3) la cinética de cristalización se ralentiza y 4) el largo espaciado aumenta es decir las regiones amorfas entre lamelas aumentan su tamaño. Parece demostrarse que es en las primeras etapas del crecimiento lamelar cuando la restricción espacial fuerza a las lamelas a esta orientación tipo flat-on frente a la orientación edge-on.
Resumo:
El progreso tecnológico y la mecanización han provocado siempre, a corto plazo, la amortización de puestos directivos de trabajo, generándose fuerte resistencia entre los anteriormente asalariados. La revuelta de los «canuts», por ejemplo en Francia, oponiéndose a la introducción de las máquinas tejedoras, forma parte de la historia del movimiento obrero del siglo XIX. La mecanización agraria no podía ser, evidentemente, la excepción. El Elemento nuevo, introducido por la presente crisis económica, es la desaparición de empleos alternativos en otras ramas de la producción u otros sectores productivos. La resistencia al desarrollo de la mecanización en el campo cobra actualmente su orina quizás más espectacular en los ataques a las cosechadoras de algodón, pero sobre todo permite la generalización de un estado de ánimo contrario en amplias capas de la población, sobre todo en Andalucía y Extremadura. Hoy no podemos seguir utilizando sencillamente los mismos conceptos productivistas de etapas económicas anteriores, aunque los autores se resisten a una oposición sistemática a la mecanización para la realización de las labores agrícolas. Con Maylor y Ver non (1969) podemos destacar el papel de la empresa y el empresario (en nuestro caso, el agricultor) a la hora de la adopción de las decisiones relativas al cómo y al qué producir. El análisis microeconómico aparece, entonces, como una útil herramienta para analizar la incidencia de un desplazamiento de la función de producción hacia una mayor intensidad en la utilización tanto del capital de explotación como del factor trabajo. En esta línea, el presente trabajo se limita al análisis del regadío extremeño —un buen ejemplo de los sistemas de agricultura del riego mediterráneo (C.M. Portas, 1983) en base a datos recogidos y contrastados por nosotros. Están basados en tiempos reales medios determinados en base a las hojas de cultivo de las fincas colaboradoras del Servicio de Extensión Agraria (S.E.A.) de Badajoz. Las conclusiones que podemos sacar del estudio no pueden, entonces, generalizarse fuera de su contexto y de sus limitaciones. Creemos que nuestros resultados al plantearse en unos términos geográficos específicos no pierden interés, sino que pueden servir, junto con otras investigaciones semejantes, para alcanzar conclusiones generales en un futuro, en un «proceso de enriquecimiento continuo entre lo general y lo particular» como señala Tuñón de Lara (1981). Entre los antecedentes más directos de este estudio, podemos destacar el de PINHEIRO y PORTAS (1980). Su contribución no se ha limitado a la aportación de información y documentación útil para contrastar nuestros resultados con la situación del Alentejo portugués, sino que ha sido constante animador en la elaboración.
Resumo:
Tradicionalmente se ha admitido que la mayor parte de las fisuras que aparecen en la superficie del pavimento procede de las capas inferiores, afectadas por la fatiga o por la retracción que acompaña al fraguado de materiales tratados con cemento. Con dicho enfoque las fisuras superficiales no serían más que la evolución o el reflejo de un problema originado en las capas inferiores. Sin embargo, en la última década diversos trabajos de investigación han puesto de manifiesto la relevancia de otro problema muy diferente: la iniciación de fisuras en la capa de rodadura que progresivamente van afectando a las capas inferiores. Es lo que se ha denominado fisuración descendente (top-down cracking). En este artículo se muestran varios casos estudiados en carreteras españolas, en los que se ha constatado que las fisuras observadas en la superficie afectaban sólo a la capa de rodadura, aunque en algunos casos habían progresado, dañando ya la parte superior de la capa intermedia. Para caracterizar las mezclas asfálticas afectadas por este problema, más generalizado de lo que se creía hasta ahora, al menos en determinadas zonas climáticas, se extrajeron testigos, comprobando la granulometría de las mezclas, sus características mecánicas y el estado del ligante. Como resultado general puede concluirse que las mezclas afectadas tenían problemas de segregación granulométrica en vertical, y en todos los casos el ligante había envejecido sensiblemente, a pesar de tratarse de actuaciones algunas de ellas con sólo unos pocos años en servicio.
Resumo:
Se establece un metodología para evaluar la cartografía de capas GIS
Resumo:
Los pilares son los elementos estructurales más sensibles de una estructura, por lo que resulta muy frecuente su refuerzo. En el presente trabajo se realiza una campaña de ensayos de pilares en modelo reducido, para este fin. Se construyeron 30 pilares en modelo reducido, 15 de ellos de sección cuadrada y 15 de sección circular. En cada caso se formaron 3 lotes, 5 pilares sin refuerzo (pilares testigo), 5 pilares con una capa de refuerzo y 5 pilares con dos capas de refuerzo. Los ensayos se realizaron en las instalaciones de GEOCISA. El trabajo comprende un estudio teórico-experimental del comportamiento mecánico de pilares de hormigón armado reforzados por confinamiento mediante la técnica de adhesión de tejidos de fibra de carbono, sometidos a una carga axial. Se describen los modos de fallo de forma comparativa entre los distintos lotes, para plantear finalmente una serie de conclusiones y recomendaciones.
Resumo:
Esta tesis se basa en la hipótesis de que la modernidad arquitectónica en México no es, como se ha pretendido, una historia homogénea, centrada en un puñado de figuras clave, sino una multiplicidad de narrativas complejas en las cuales el arte y los medios impresos juegan un papel esencial. Por tanto, se propone una nueva mirada sobre la arquitectura del siglo XX en México a partir de la relación con la fotografía, el dibujo, las ideas y los medios. La tesis se plantea con el fin de vincular la arquitectura con los movimientos artísticos relevantes, los autores con las publicaciones, las formas con los manifiestos. Asímismo, uno de los principales intereses es explorar los conceptos de modernidad y de identidad, como parte de la construcción misma de la arquitectura de dicha época y del concepto de “lo mexicano”. A pesar del énfasis que se ha dado en la construcción de un canon, muchas veces ligado a la noción de monumentalidad, regionalismo, y mestizaje, este trabajo parte de una mirada puesta no en las formas sino en los procesos. A partir de las conexiones entre distintas capas de información, se buscan nuevas maneras de abordar el proyecto arquitectónico. El crítico de arquitectura brasileño Hugo Segawa ha descrito la investigación sobre la arquitectura latinoamericana como “una tarea más de índole arqueológica que historiográfica”, sin embargo, también ha calificado a México como “el más vigoroso centro de debates teóricos en Latinoamérica a lo largo del siglo XX.” Ese descompas entre la ruina y el vigor, entre la abundancia de producción y la precariedad de su conservación, ha definido no solo el estudio de la arquitectura sino las propias formas de creación. Por tanto, la tesis se plantea como una nueva plataforma desde la cual sea posible reformular la arquitectura, lejos de su condición amnésica, pensada en cambio, como un sistema basado en una misma voluntad por indagar y crear. Se busca, siguiendo al crítico británico Anthony Vidler, “relacionar” la historia con el proyecto. Con el fin de quitarle lo escurridizo a una historia incompleta y sobre todo de poder entender la manera en que las ideas se convierten en forma o en objeto, la tesis se estructura a partir de 22 líneas de tiempo organizadas en tres recorridos que se cruzan: arquitectura; arte y pensamiento. A partir de referencias como el Atlas Mnemosyne de Aby Wargurg o la serie Asterisms del artista Gabriel Orozco, se crean nuevos dispositivos para ver. De tal manera, se desdoblan los distintos temas para trazar relaciones entre la ciudad, los edificios, las utopías, las publicaciones y la publicidad. El trabajo se construye como un nuevo instrumento de exploración articulado por medio de capas, como un mapa genealógico evolutivo. El objetivo es abarcar aquella arquitectura construida no sólo en la ciudad sino también en el papel. Iniciando con el trabajo de la generación que llevó la arquitectura al siglo XX, el estudio se extiende a manera de epílogo hasta la primera década del siglo XXI, reuniendo obras que normalmente se han visto de manera aislada para entenderlas en su contexto más amplio. Como escenario de búsquedas, esta tesis intenta provocar el cruce de significados, creyendo imprescindible una nueva reflexión en torno a la disciplina y a los escenarios en los cuales se inscribe. La arquitectura de México –un país que en el siglo XX pasó de tener 13 millones de habitantes a 100 millonescorresponde esencialmente a una producción anónima, o bien, fabricada a partir de estereotipos. Pero entre la mancha de desarrollo informal y el hito reconocible está un trabajo tan amplio como inexplorado. Por tanto, se ofrece una serie de nuevas constelaciones que comprenden desde la Revolución de 1910 a los Juegos Olímpicos de 1968; del terremoto de la ciudad de México en 1985 a los concursos internacionales de las últimas décadas. This thesis’ hypothesis states that architectural modernity in Mexico is not, as sometimes pretended, a homogeneous history, focused on some key figures, but rather a multiple and complex narrative, in which art and print media have played an essential role. Therefore, it proposes a new perspective on 20th century architecture in Mexico analized through the relationship between architecture and photography, art, theory and media. Its aim is to link architecture and artistic movements, authors and publications, forms and manifestos. What is intended here is to explore the concepts of ‘modernity’ and ‘identity’ as part of the construction of architecture and the concept of ‘Mexicanity’. Despite the emphasis that has been given to the construction of an architectural canon —mostly related to the notions of monumentality, regionalism and mestizaje/métissage— this thesis’ approach is focused mainly in processes and not in forms. Through connections between diverse layers of information, new ways of dealing with the architectural project are explored. Brazilian architecture critic Hugo Segawa has described the research on Latin American architecture as «more a task of archaeology than of historiography». Nonetheless, he has also described Mexico as «the most vigorous center of theoretical debates in Latin America throughout the 20th century». This acute discrepancy between decay and vigor, between abundance of production and precarious state of conservation has determined not only the ways in which architecture is studied and understood but also the process of architectural creation. This work is therefore outlined as a new platform in order to reformulate the discipline as a system based on a common will to research and create, far from the existing amnesiac attitude. Following British critic Anthony Vidler, the interest relies in the attempt to ‘relate’ History to project. In order to reduce the elusiveness of an incomplete history and, specially, to understand how ideas become forms and objects, this thesis is composed of 22 timelines organized in three intersecting itineraries: Architecture, Art and Theory. Drawing inspiration from Aby Warburg’s Atlas Mnemosyne and Gabriel Orozco’s series Asterisms, new exploration devices are created. In such a way, diverse topics unfold to draw connections between built environment, utopian projects, publications, photography and publicity. This work is developed as a new tool for exploration, articulated by layers, like an evolutionary genealogy map. Its objective is to analyze not only the architecture build in cities, but produced on paper. Starting with the work of the generation that led Mexican architecture into the 20th century, this research extends until the first decade of the 21st century (the epilogue), gathering together works which have been usually seen in isolation, and therefore making possible its understanding in a broader context. As a scenario for exploration, this work tries to prompt the crossing of meanings, in the belief that new approaches on the discipline and its context are needed. Architecture in Mexico — a country whose population grew in the 20th century form 13 to 100 million— is related essentially with an anonymous production, or else made from stereotypes. However, between the sprawl of informal urban developments and landmark buildings there is an architectural production as extensive as it is unexamined. This essay introduces a series of new constellations, ranging from the Revolution in 1910 to the Olympic Games in 1968; from the earthquake in Mexico City in 1985 to the international competitions of the last decade. These myriad perspectives present buildings that were never built, forgotten writings, iconic images and unpublished material.