47 resultados para Célula eucariótica
Resumo:
Esta Tesis trata sobre el desarrollo y crecimiento -mediante tecnología MOVPE (del inglés: MetalOrganic Vapor Phase Epitaxy)- de células solares híbridas de semiconductores III-V sobre substratos de silicio. Esta integración pretende ofrecer una alternativa a las células actuales de III-V, que, si bien ostentan el récord de eficiencia en dispositivos fotovoltaicos, su coste es, a día de hoy, demasiado elevado para ser económicamente competitivo frente a las células convencionales de silicio. De este modo, este proyecto trata de conjugar el potencial de alta eficiencia ya demostrado por los semiconductores III-V en arquitecturas de células fotovoltaicas multiunión con el bajo coste, la disponibilidad y la abundancia del silicio. La integración de semiconductores III-V sobre substratos de silicio puede afrontarse a través de diferentes aproximaciones. En esta Tesis se ha optado por el desarrollo de células solares metamórficas de doble unión de GaAsP/Si. Mediante esta técnica, la transición entre los parámetros de red de ambos materiales se consigue por medio de la formación de defectos cristalográficos (mayoritariamente dislocaciones). La idea es confinar estos defectos durante el crecimiento de sucesivas capas graduales en composición para que la superficie final tenga, por un lado, una buena calidad estructural, y por otro, un parámetro de red adecuado. Numerosos grupos de investigación han dirigido sus esfuerzos en los últimos años en desarrollar una estructura similar a la que aquí proponemos. La mayoría de éstos se han centrado en entender los retos asociados al crecimiento de materiales III-V, con el fin de conseguir un material de alta calidad cristalográfica. Sin embargo, prácticamente ninguno de estos grupos ha prestado especial atención al desarrollo y optimización de la célula inferior de silicio, cuyo papel va a ser de gran relevancia en el funcionamiento de la célula completa. De esta forma, y con el fin de completar el trabajo hecho hasta el momento en el desarrollo de células de III-V sobre silicio, la presente Tesis se centra, fundamentalmente, en el diseño y optimización de la célula inferior de silicio, para extraer su máximo potencial. Este trabajo se ha estructurado en seis capítulos, ordenados de acuerdo al desarrollo natural de la célula inferior. Tras un capítulo de introducción al crecimiento de semiconductores III-V sobre Si, en el que se describen las diferentes alternativas para su integración; nos ocupamos de la parte experimental, comenzando con una extensa descripción y caracterización de los substratos de silicio. De este modo, en el Capítulo 2 se analizan con exhaustividad los diferentes tratamientos (tanto químicos como térmicos) que deben seguir éstos para garantizar una superficie óptima sobre la que crecer epitaxialmente el resto de la estructura. Ya centrados en el diseño de la célula inferior, el Capítulo 3 aborda la formación de la unión p-n. En primer lugar se analiza qué configuración de emisor (en términos de dopaje y espesor) es la más adecuada para sacar el máximo rendimiento de la célula inferior. En este primer estudio se compara entre las diferentes alternativas existentes para la creación del emisor, evaluando las ventajas e inconvenientes que cada aproximación ofrece frente al resto. Tras ello, se presenta un modelo teórico capaz de simular el proceso de difusión de fosforo en silicio en un entorno MOVPE por medio del software Silvaco. Mediante este modelo teórico podemos determinar qué condiciones experimentales son necesarias para conseguir un emisor con el diseño seleccionado. Finalmente, estos modelos serán validados y constatados experimentalmente mediante la caracterización por técnicas analíticas (i.e. ECV o SIMS) de uniones p-n con emisores difundidos. Uno de los principales problemas asociados a la formación del emisor por difusión de fósforo, es la degradación superficial del substrato como consecuencia de su exposición a grandes concentraciones de fosfina (fuente de fósforo). En efecto, la rugosidad del silicio debe ser minuciosamente controlada, puesto que éste servirá de base para el posterior crecimiento epitaxial y por tanto debe presentar una superficie prístina para evitar una degradación morfológica y cristalográfica de las capas superiores. En este sentido, el Capítulo 4 incluye un análisis exhaustivo sobre la degradación morfológica de los substratos de silicio durante la formación del emisor. Además, se proponen diferentes alternativas para la recuperación de la superficie con el fin de conseguir rugosidades sub-nanométricas, que no comprometan la calidad del crecimiento epitaxial. Finalmente, a través de desarrollos teóricos, se establecerá una correlación entre la degradación morfológica (observada experimentalmente) con el perfil de difusión del fósforo en el silicio y por tanto, con las características del emisor. Una vez concluida la formación de la unión p-n propiamente dicha, se abordan los problemas relacionados con el crecimiento de la capa de nucleación de GaP. Por un lado, esta capa será la encargada de pasivar la subcélula de silicio, por lo que su crecimiento debe ser regular y homogéneo para que la superficie de silicio quede totalmente pasivada, de tal forma que la velocidad de recombinación superficial en la interfaz GaP/Si sea mínima. Por otro lado, su crecimiento debe ser tal que minimice la aparición de los defectos típicos de una heteroepitaxia de una capa polar sobre un substrato no polar -denominados dominios de antifase-. En el Capítulo 5 se exploran diferentes rutinas de nucleación, dentro del gran abanico de posibilidades existentes, para conseguir una capa de GaP con una buena calidad morfológica y estructural, que será analizada mediante diversas técnicas de caracterización microscópicas. La última parte de esta Tesis está dedicada al estudio de las propiedades fotovoltaicas de la célula inferior. En ella se analiza la evolución de los tiempos de vida de portadores minoritarios de la base durante dos etapas claves en el desarrollo de la estructura Ill-V/Si: la formación de la célula inferior y el crecimiento de las capas III-V. Este estudio se ha llevado a cabo en colaboración con la Universidad de Ohio, que cuentan con una gran experiencia en el crecimiento de materiales III-V sobre silicio. Esta tesis concluye destacando las conclusiones globales del trabajo realizado y proponiendo diversas líneas de trabajo a emprender en el futuro. ABSTRACT This thesis pursues the development and growth of hybrid solar cells -through Metal Organic Vapor Phase Epitaxy (MOVPE)- formed by III-V semiconductors on silicon substrates. This integration aims to provide an alternative to current III-V cells, which, despite hold the efficiency record for photovoltaic devices, their cost is, today, too high to be economically competitive to conventional silicon cells. Accordingly, the target of this project is to link the already demonstrated efficiency potential of III-V semiconductor multijunction solar cell architectures with the low cost and unconstrained availability of silicon substrates. Within the existing alternatives for the integration of III-V semiconductors on silicon substrates, this thesis is based on the metamorphic approach for the development of GaAsP/Si dual-junction solar cells. In this approach, the accommodation of the lattice mismatch is handle through the appearance of crystallographic defects (namely dislocations), which will be confined through the incorporation of a graded buffer layer. The resulting surface will have, on the one hand a good structural quality; and on the other hand the desired lattice parameter. Different research groups have been working in the last years in a structure similar to the one here described, being most of their efforts directed towards the optimization of the heteroepitaxial growth of III-V compounds on Si, with the primary goal of minimizing the appearance of crystal defects. However, none of these groups has paid much attention to the development and optimization of the bottom silicon cell, which, indeed, will play an important role on the overall solar cell performance. In this respect, the idea of this thesis is to complete the work done so far in this field by focusing on the design and optimization of the bottom silicon cell, to harness its efficiency. This work is divided into six chapters, organized according to the natural progress of the bottom cell development. After a brief introduction to the growth of III-V semiconductors on Si substrates, pointing out the different alternatives for their integration; we move to the experimental part, which is initiated by an extensive description and characterization of silicon substrates -the base of the III-V structure-. In this chapter, a comprehensive analysis of the different treatments (chemical and thermal) required for preparing silicon surfaces for subsequent epitaxial growth is presented. Next step on the development of the bottom cell is the formation of the p-n junction itself, which is faced in Chapter 3. Firstly, the optimization of the emitter configuration (in terms of doping and thickness) is handling by analytic models. This study includes a comparison between the different alternatives for the emitter formation, evaluating the advantages and disadvantages of each approach. After the theoretical design of the emitter, it is defined (through the modeling of the P-in-Si diffusion process) a practical parameter space for the experimental implementation of this emitter configuration. The characterization of these emitters through different analytical tools (i.e. ECV or SIMS) will validate and provide experimental support for the theoretical models. A side effect of the formation of the emitter by P diffusion is the roughening of the Si surface. Accordingly, once the p-n junction is formed, it is necessary to ensure that the Si surface is smooth enough and clean for subsequent phases. Indeed, the roughness of the Si must be carefully controlled since it will be the basis for the epitaxial growth. Accordingly, after quantifying (experimentally and by theoretical models) the impact of the phosphorus on the silicon surface morphology, different alternatives for the recovery of the surface are proposed in order to achieve a sub-nanometer roughness which does not endanger the quality of the incoming III-V layers. Moving a step further in the development of the Ill-V/Si structure implies to address the challenges associated to the GaP on Si nucleation. On the one hand, this layer will provide surface passivation to the emitter. In this sense, the growth of the III-V layer must be homogeneous and continuous so the Si emitter gets fully passivated, providing a minimal surface recombination velocity at the interface. On the other hand, the growth should be such that the appearance of typical defects related to the growth of a polar layer on a non-polar substrate is minimized. Chapter 5 includes an exhaustive study of the GaP on Si nucleation process, exploring different nucleation routines for achieving a high morphological and structural quality, which will be characterized by means of different microscopy techniques. Finally, an extensive study of the photovoltaic properties of the bottom cell and its evolution during key phases in the fabrication of a MOCVD-grown III-V-on-Si epitaxial structure (i.e. the formation of the bottom cell; and the growth of III-V layers) will be presented in the last part of this thesis. This study was conducted in collaboration with The Ohio State University, who has extensive experience in the growth of III-V materials on silicon. This thesis concludes by highlighting the overall conclusions of the presented work and proposing different lines of work to be undertaken in the future.
Resumo:
Las NADPH oxidasas de plantas, denominadas “respiratory burst oxidase homologues” (RBOHs), producen especies reactivas del oxígeno (ROS) que median un amplio rango de funciones. En la célula vegetal, el ajuste preciso de la producción de ROS aporta la especificidad de señal para generar una respuesta apropiada ante las amenazas ambientales. RbohD y RbohF, dos de los diez genes Rboh de Arabidopsis, son pleiotrópicos y median diversos procesos fisiológicos en respuesta a patógenos. El control espacio-temporal de la expresión de los genes RbohD y RbohF podría ser un aspecto crítico para determinar la multiplicidad de funciones de estas oxidasas. Por ello, generamos líneas transgénicas de Arabidopsis con fusiones de los promoters de RbohD y RbohF a los genes delatores de la B-glucuronidasa y la luciferasa. Estas líneas fueron empleadas para revelar el patrón de expresión diferencial de RbohD y RbohF durante la respuesta inmune de Arabidopsis a la bacteria patógena Pseudomonas syringae pv. tomato DC3000, el hongo necrótrofo Plectosphaerella cucumerina y en respuesta a señales relacionadas con la respuesta inmune. Nuestros experimentos revelan un patrón de expresión diferencial de los promotores de RbohD y RbohF durante el desarrollo de la planta y en la respuesta inmune de Arabidopsis. Además hemos puesto de manifiesto que existe una correlación entre el nivel de actividad de los promotores de RbohD y RbohF con la acumulación de ROS y el nivel de muerte celular en respuesta a patógenos. La expression de RbohD y RbohF también es modulada de manera diferencial en respuesta a patrones moleculares asociados a patógenos (PAMPs) y por ácido abscísico (ABA). Cabe destacar que, mediante una estrategia de intercambio de promotores, hemos revelado que la región promotora de RbohD, es necesaria para dirigir la producción de ROS en respuesta a P. cucumerina. Adicionalmente, la activación del promotor de RbohD en respuesta al aislado de P. cucumerina no adaptado a Arabidopsis 2127, nos llevó a realizar ensayos de susceptibilidad con el doble mutante rbohD rbohF que han revelado un papel desconocido de estas oxidasas en resistencia no-huesped. La interacción entre la señalización dependiente de las RBOHs y otros componentes de la respuesta inmune de plantas podría explicar también las distintas funciones que median estas oxidasas en relación con la respuesta inmune. Entre la gran cantidad de señales coordinadas con la actividad de las RBOHs, existen evidencias genéticas y farmacológicas que indican que las proteínas G heterotriméricas están implicadas en algunas de las rutas de señalización mediadas por ROS derivadas de los RBOHs en respuesta a señales ambientales. Por ello hemos estudiado la relación entre estas RBOH-NADPH oxidasas y AGB1, la subunidad β de las proteínas G heterotriméricas en la respuesta inmune de Arabidopsis. Análisis de epistasis indican que las proteínas G heterotriméricas están implicadas en distintas rutas de señalización en defensa mediadas por las RBOHs. Nuestros resultados ilustran la relación compleja entre la señalización mediada por las RBOHs y las proteínas G heterotriméricas, que varía en función de la interacción planta-patógeno analizada. Además, hemos explorado la posible asociación entre AGB1 con RBOHD y RBOHF en eventos tempranos de la respuesta immune. Cabe señalar que experimentos de coímmunoprecipitación apuntan a una posible asociación entre AGB1 y la kinasa citoplasmática reguladora de RBOHD, BIK1. Esto indica un posible mecanismo de control de la función de esta NADPH oxidase por AGB1. En conjunto, estos datos aportan nuevas perspectivas sobre cómo, a través del control transcripcional o mediante la interacción con las proteínas G heterotriméricas, las NADPH oxidases de plantas median la producción de ROS y la señalización por ROS en la respuesta inmune. Nuestro trabajo ejemplifica cómo la regulación diferencial de dos miembros de una familia multigénica, les permite realizar distintas funciones fisiológicas especializadas usando un mismo mecanismo enzimático. ABSTRACT The plant NADPH oxidases, termed respiratory burst oxidase homologues (RBOHs), produce reactive oxygen species (ROS) which mediate a wide range of functions. Fine tuning this ROS production provides the signaling specificity to the plant cell to produce the appropriate response to environmental threats. RbohD and RbohF, two of the ten Rboh genes present in Arabidopsis, are pleiotropic and mediate diverse physiological processes in response to pathogens. One aspect that may prove critical to determine the multiplicity of functions of RbohD and RbohF is the spatio-temporal control of their gene expression. Thus, we generated Arabidopsis transgenic lines with RbohD- and RbohF-promoter fusions to the β-glucuronidase and the luciferase reporter genes. These transgenics were employed to reveal RbohD and RbohF promoter activity during Arabidopsis immune response to the pathogenic bacterium Pseudomonas syringae pv tomato DC3000, the necrotrophic fungus Plectosphaerella cucumerina and in response to immunity-related cues. Our experiments revealed a differential expression pattern of RbohD and RbohF throughout plant development and during Arabidopsis immune response. Moreover, we observed a correlation between the level of RbohD and RbohF promoter activity, the accumulation of ROS and the amount of cell death in response to pathogens. RbohD and RbohF gene expression was also differentially modulated by pathogen associated molecular patterns and abscisic acid. Interestingly, a promoter-swap strategy revealed the requirement for the promoter region of RbohD to drive the production of ROS in response to P. cucumerina. Additionally, since the RbohD promoter was activated during Arabidopsis interaction with a non-adapted P. cucumerina isolate 2127, we performed susceptibility tests to this fungal isolate that uncovered a new role of these oxidases on non-host resistance. The interplay between RBOH-dependent signaling with other components of the plant immune response might also explain the different immunity-related functions mediated by these oxidases. Among the plethora of signals coordinated with RBOH activity, pharmacological and genetic evidence indicates that heterotrimeric G proteins are involved in some of the signaling pathways mediated by RBOH–derived ROS in response to environmental cues. Therefore, we analysed the interplay between these RBOH-NADPH oxidases and AGB1, the Arabidopsis β-subunit of heterotrimeric G proteins during Arabidopsis immune response. We carried out epistasis studies that allowed us to test the implication of AGB1 in different RBOH-mediated defense signaling pathways. Our results illustrate the complex relationship between RBOH and heterotrimeric G proteins signaling, that varies depending on the type of plant-pathogen interaction. Furthermore, we tested the potential association between AGB1 with RBOHD and RBOHF during early immunity. Interestingly, our co-immunoprecipitation experiments point towards an association of AGB1 and the RBOHD regulatory kinase BIK1, thus providing a putative mechanism in the control of the NADPH oxidase function by AGB1. Taken all together, these studies provide further insights into the role that transcriptional control or the interaction with heterotrimeric G-proteins have on RBOH-NADPH oxidase-dependent ROS production and signaling in immunity. Our work exemplifies how, through a differential regulation, two members of a multigenic family achieve specialized physiological functions using a common enzymatic mechanism.
Resumo:
Resulta interesante comprender como microorganismos sencillos como la bacteria Escherichia coli poseen mecanismos no tan simples para responder al entorno en el que está gestionada por complicadas redes de regulación formadas por genes y proteínas, donde cada elemento de la red genética debe tomar parte en armonía, en el momento justo y la cantidad adecuada para dar lugar a la respuesta celular apropiada. La biología sintética es un nuevo área de la biología y la tecnología que fusiona la biolog ía molecular, la ingeniería genética y las herramientas computacionales, para crear sistemas biológicos con funcionalidades novedosas. Los sistemas creados sintéticamente son ya una realidad, y cada vez se acumulan más trabajos alrededor del mundo que muestran su factibilidad. En este campo no solo se hacen pequeñas modificaciones en la información genética, sino que también se diseñan, manipulan e introducen circuitos genéticos a los organismos. Actualmente, se hace un gran esfuerzo para construir circuitos genéticos formados por numerosos genes y caracterizar la interacción de los mismos con otras moléculas, su regulaci ón, expresión y funcionalidad en diferentes organismos. La mayoría de los proyectos de biología sintética que se han desarrollado hasta ahora, se basan en el conocimiento actual del funcionamiento de los organismos vivos. Sin embargo, la información es numerosa y creciente, por lo que se requiere de herramientas computacionales y matem áticas para integrar y hacer manejable esta gran cantidad de información. El simulador de colonias bacterianas GRO posee la capacidad de representar las dinámicas más simples del comportamiento celular, tales como crecimiento, división y comunicación intercelular mediante conjugación, pero carece de la capacidad de simular el comportamiento de la colonia en presencia de un circuito genético. Para ello, se ha creado un nuevo módulo de regulación genética que maneja las interaciones entre genes y proteínas de cada célula ejecutando respuestas celulares específicas. Dado que en la mayoría de los experimentos intervienen colonias del orden de 105 individuos, es necesario un módulo de regulación genética simplificado que permita representar de la forma más precisa posible este proceso en colonias de tales magnitudes. El módulo genético integrado en GRO se basa en una red booleana, en la que un gen puede transitar entre dos estados, on (expresado) o off (reprimido), y cuya transición viene dada por una serie de reglas lógicas.---ABSTRACT---It is interesting to understand how simple organisms such as Escherichia coli do not have simple mechanisms to respond to the environment in which they find themselves. This response is managed by complicated regulatory networks formed by genes and proteins, where each element of the genetic network should take part in harmony, at the right time and with the right amount to give rise to the appropriate cellular response. Synthetic biology is a new area of biology and technology that combines molecular biology, genetic engineering and computational tools to create biological systems with novel features. The synthetically created systems are already a reality, and increasingly accumulate work around the world showing their feasibility. In this field not only minor changes are made in the genetic information but also genetic circuits designed, manipulated and introduced into the organisms. Currently, it takes great effort to build genetic circuits formed by numerous genes and characterize their interaction with other molecules, their regulation, their expression and their function in different organisms. Most synthetic biology projects that have been developed so far are based on the current knowledge of the functioning of living organisms. However, there is a lot of information and it keeps accumulating, so it requires computational and mathematical tools to integrate and manage this wealth of information. The bacterial colonies simulator, GRO, has the ability to represent the simplest dynamics of cell behavior, such as growth, division and intercellular communication by conjugation, but lacks the ability to simulate the behavior of the colony in the presence of a genetic circuit. To this end, a new genetic regulation module that handles interactions between genes and proteins for each cell running specific cellular responses has been created. Since most experiments involve colonies of about 105 individuals, a simplified genetic module which represent cell dynamics as accurately and simply as possible is needed. The integrated genetic GRO module is based on a Boolean network, in which a gene can be in either of two states, on (expressed) or off (repressed), and whose transition is given by a set of logical rules.
Design and Simulation of Deep Nanometer SRAM Cells under Energy, Mismatch, and Radiation Constraints
Resumo:
La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.
Resumo:
Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.
Resumo:
As tecnologias de sementeira directa e agricultura de precisão podem conciliar-se num novo conceito de sementeira directa de precisão. Desta forma, neste ensaio ambas as tecnologias permitiram provar que variações da resistência de penetração do solo afectam a qualidade da operação de sementeira no que respeita à uniformidade de profundidade de distribuição da semente. A utilização de um equipamento de GPS na georeferenciação de uma sementeira de milho, e a montagem de uma célula de carga e de um sensor LVDT numa das linhas de um semeador mecânico monogrão permitiram avaliar a variação da força exercida sobre o solo pelo braço de sementeira e a respectiva variação de profundidade de deposição da semente. Os resultados mostram uma correlação moderada de 0.4 para as classes de Força de 0-735N, 735-882N e 882-1176N com as classes de profundidades de 0-10mm, 10-20mm e 20-30mm, respectivamente. Apesar de mais ensaios serem necessários para a consolidação dos valores obtidos, atendendo à importância que a sementeira directa tem no panorama dos sistemas de agricultura de conservação em Portugal, estes resultados mostram o interesse no desenvolvimento de sistemas de controlo de pressão dinâmicos nos semeadores de sementeira directa de modo a reduzir as variações encontradas.
Resumo:
La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.
Resumo:
En éste trabajo se ofrece la realización de una célula elemental programable ópticamente, capaz de realizar hasta siete operaciones lógicas, constituyendo catorce pares de salida. El principio innovador de la célula, es el uso de fibras ópticas multimodo, enlazadas mediante acopladores convencionales de COs, a 1,3 fim. Como fuentes de radiación óptica se han empleado LEDs de bajo costo, constituyendo esto una nueva ventaja sobre otras células presentadas en la literatura del tema.
Resumo:
Una célula TEM es un sistema concebido para conseguir en una determinada zona del espacio un campo electromagnético de forma controlada cuyo comportamiento tienda lo más posible al de una onda plana, aprovechando para ello ciertas propiedades asociadas al modo TEM. En este proyecto se analizan, desde el punto de vista electromagnnético, algunos tipos de células TEM. Tras una breve descripción de las diferentes geometrías que éstas pueden tomar y de las aplicaciones asociadas a las mismas, se estudian algunas de las técnicas de ajuste de campo (Resonancia Transversal y Ajuste Modal) con el fin de obtener los conocimientos necesarios para implementar una herramienta computacional que permita la determinación electromagnética completa "Full-Wave"del problema planteado. Una vez desarrollada, se emplearán los resultados derivados de la misma para analizar ciertos fenómenos que se producen en este tipo de sistemas y que nos aportará un conocimiento profundo sobre los mismos con vista a concebir estrategias de diseño que permitan optimizar su funcionamiento.
Resumo:
Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.
Resumo:
Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.
Resumo:
Desde finales del siglo anterior, el desarrollo sostenible se ha mostrado como el camino necesario para afrontar los grandes retos de las ciudades. Con más de veinte años transcurridos desde la emblemática Cumbre de Rio de Janeiro (1992), en 2015 se pueden evaluar las fortalezas y debilidades que se han abierto con este nuevo objetivo global para ser aplicado desde las escalas locales. Un nuevo camino aparece con fuerza, el de los barrios saludables, entendiéndolos como una célula básica de sostenibilidad donde se pueden resolver satisfactoriamente gran cantidad de problemáticas sociales y ambientales, como son la contaminación ambiental, el ruido urbano, la reducción del CO2, el aumento de las zonas verdes, el control microclimático de los espacios urbanos, el uso adecuado del espacio público y la reducción del stress urbano también necesario para la salud mental de todos los residentes. El texto resume estos objetivos para la planificación urbana.
Resumo:
Este estudio ofrece una herramienta de aproximación al espacio morfológico-métrico en el que se formula la ciudad de alta densidad desde la vivienda colectiva. La vivienda colectiva es la célula básica de la ciudad. El estudio configurativo y dimensional del tejido urbano muestra la importancia del fondo edificatorio como parámetro clave a mitad de camino entre la vivienda y la ciudad. El fondo edificatorio traza el margen de la arquitectura en la ciudad y desde él se equipa y cuantifica el territorio urbano. Sus dinámicas van caracterizando los distintos entornos, mientras en su interior se formula el tipo en un ajuste de continua verificación y adaptación. La forma de la ciudad y sus distintas posibilidades configurativas —en cuanto masa construida y espacio público, pero sin perder de vista la relación entre ambos— depende en gran medida del fondo edificatorio. Se trata, por tanto, de un parámetro importante de relación entre las distintas configuraciones del espacio exterior e interior. Al proyectar, una vez establecido un fondo, algunas propiedades se adaptan con facilidad mientras que otras requieren un cierto grado de interpretación o deben ser descartadas. Dada una superficie, la especificación del fondo fuerza la dimensión del frente en las configuraciones posibles. Ambas dimensiones son vitales en el valor del factor de forma del continuo edificado y en su relación se produce el complejo rango de posibilidades. Partiendo de la ciudad, un gran fondo encierra y mezcla en su interior todo tipo de usos sin distinción, repercute un menor coste por unidad de superficie edificada y comparte su frente reduciendo los intercambios térmicos y lumínicos. Sin embargo la ciudad de fondo reducido ajusta la forma al uso y se desarrolla linealmente con repetitividad a lo largo de sus frentes exteriores. En ella, el fuerte intercambio energético se opone a las grandes posibilidades del espacio libre. En cambio desde la casa las distintas medidas del fondo se producen bajo determinados condicionantes: clima, compacidad, ocupación, hibridación, tamaño de casa, etc., mientras que el tipo se desarrolla en base a una métrica afín. Este trabajo parte de esta dialéctica. Estudia la relación de dependencia entre las condiciones del edificio de viviendas y su métrica. Jerarquiza edificios en base al parámetro “fondo” para constituir una herramienta que como un ábaco sea capaz de visibilizar las dinámicas relacionales entre configuración y métrica bajo la condición de alta densidad. Para ello en una primera fase se gestiona una extensa muestra de edificios representativos de vivienda colectiva principalmente europea, extraída de tres prestigiosos libros en forma de repertorio. Se ordenan y categorizan extrayendo datos conmensurables y temas principales que ligan la profundidad de la huella a la morfología y posteriormente, esta información se estudia en diagramas que ponen de manifiesto convergencias y divergencias, acumulaciones y vacíos, límites, intervalos característicos, márgenes y ejes, parámetros y atributos... cuya relación trata de factorizar el lugar morfológico y métrico de la casa como metavivienda y ciudad. La herramienta se establece así como un complejo marco relacional en el que posicionar casos concretos y trazar nexos transversales, tanto de tipo morfológico como cultural, climático o técnico, normativo o tecnológico. Cada nuevo caso o traza añadida produce consonancias y disonancias en el marco que requieren interpretación y verificación. De este modo este instrumento de análisis comparativo se tempera, se especializa, se completa y se perfecciona con su uso. La forma de la residencia en la ciudad densa se muestra así sobre un subsistema morfológico unitario y su entendimiento se hace más fácilmente alcanzable y acumulable tanto para investigaciones posteriores como para el aprendizaje o el ejercicio profesional. ABSTRACT This research study offers a tool to approach the morphometric space in which (multi-family) housing defines high-density cities. Multi-family housing is the basic cell of the city. The configuration and dimension studies of the urban fabric render the importance of building depth as a key parameter half way between the dwelling and the city. The building depth traces de limit of architecture in the city. It qualifies and quantifies the urban territory. Its dynamics characterize the different environments while in its essence, an adjustment process of continuous verification and adaption defines type. The shape of the city and its different configuration possibilities —in terms of built fabric and public space, always keeping an eye on the relationship between them— depend majorly on the building depth. Therefore, it is a relevant parameter that relates the diverse configurations between interior and exterior space. When designing, once the depth is established, some properties are easily adpated. However, others require a certain degree of interpretation or have to be left out of the study. Given a ceratin surface, the establishment of the depth forces the dimensions of the facade in the different configurations. Both depth and facade dimensions are crucial for the form factor of the built mass. Its relationship produces a complex range of possibilities. From an urban point of view, great depth means multiple uses (making no distinction whatsoever,) it presents a lower cost per unit of built area and shares its facade optimizing temperature and light exchange. On the contrary, the city of reduced depth adjusts its shape to the use, and develops linearly and repetitively along its facades. The strong energy exchange opposes to the great possibilities of free space. From the perspective of the dwelling, the different dimensions of depth are produced under certain determinants: climate, compactness, occupancy, hybridization, dwelling size, etc. Meanwhile, the type is developed based on a related meter (as in poetry). This work starts from the previous premise. It studies the dependency relation bewteen the conditions of the dwellings and their meter (dimensions). It organizes buildings hierarchically based on the parameter “depth” to create a tool that, as an abacus, is able to visibilise the relational dynamics between configuration and dimension in high density conditions. For this, in the first stage a large group of representative multi-family housing buildings is managed, mostly from Europe, picked from three prestigious books as a repertoir. They are categorized and ordered drawing commensurable data and key issues that link the depth of the fooprint to its morphology. Later, this information is studied deeply with diagrams that bring out connections and discrepancies, voids and accumulations, limits, charasteristic intervals, margins and axii, parameters, attributes, etc. These relationships try to create factors from a morphological and metrical point of view of the house as a metadwelling. This tool is established as a complex relation frame in which case studies are postitioned and cross-cutting nexii are traced. These can deal with morphology, climate, technique, law or technology. Each new case or nexus produces affinities and discrepancies that require interpretation and verification. Thus, this instrument of comparative analysis is fine-tuned, especialized and completed as its use is improved. The way housing is understood in high density cities is shown as a unitary metric subsystem and its understanding is easy to reach and accumulate for future researchers, students or practicing architects.
Resumo:
El concepto de casa crecedera, tal y como lo conocemos en la actualidad, se acuñó por primera vez en 1932 en el concurso Das Wachsende Haus organizado por Martin Wagner y Hans Poelzig dentro del marco de la Exposición Internacional Sonne, Luft und Haus für alle, promovida por la Oficina de Turismo de la ciudad de Berlín. En dicho concurso, se definía este tipo de vivienda como aquella célula básica o vivienda semilla que, dependiendo de las necesidades y posibilidades de los habitantes, podía crecer mediante otras estancias, conformando una vivienda completa en sí misma en cada fase de crecimiento. Numerosos arquitectos de primer orden, tales como Walter Gropius, Bruno Taut, Erich Mendelsohn o Hans Scharoun, participaron en este concurso, abriendo una nueva vía de exploración dentro de la vivienda flexible, la del crecimiento programado. A partir de ese momento, en Europa, y subsecuentemente en EEUU y otras regiones desarrolladas, se iniciaron numerosas investigaciones teóricas y prácticas en torno al fenómeno del crecimiento en la vivienda desde un enfoque vinculado a la innovación, tanto espacial como técnica. Por otro lado, aunque dentro del marco de la arquitectura popular de otros países, ya se ensayaban viviendas crecederas desde el siglo XVIII debido a que, por su tamaño, eran más asequibles dentro del mercado. Desde los años treinta, numerosos países en vías de desarrollo tuvieron que lidiar con migraciones masivas del campo a la ciudad, por lo que se construyeron grandes conjuntos habitacionales que, en numerosos casos, estaban conformados por viviendas crecederas. En todos ellos, la aproximación al crecimiento de la vivienda se daba desde una perspectiva diferente a la de los países desarrollados. Se primaba la economía de medios, el uso de sistemas constructivos de bajo costo y, en muchos casos, se fomentaba incluso la autoconstrucción guiada, frente a las construcciones prefabricadas ensambladas por técnicos especializados que se proponían, por ejemplo, en los casos europeos. Para realizar esta investigación, se recopiló información de estas y otras viviendas. A continuación, se identificaron distintas maneras de producir el crecimiento, atendiendo a su posición relativa respecto de la vivienda semilla, a las que se denominó mecanismos de ampliación, utilizados indistintamente sin tener en cuenta la ubicación geográfica de cada casa. La cuestión de porqué se prefiere un mecanismo en lugar de otro en un caso determinado, desencadenó el principal objetivo de esta Tesis: la elaboración de un sistema de análisis y diagnóstico de la vivienda crecedera que, de acuerdo a determinados parámetros, permitiera indicar cuál es la ampliación o sucesión de ampliaciones óptimas para una familia concreta, en una ubicación establecida. Se partió de la idea de que el crecimiento de la vivienda está estrechamente ligado a la evolución de la unidad de convivencia que reside en ella, de manera que la casa se transformó en un hábitat dinámico. Además se atendió a la complejidad y variabilidad del fenómeno, sujeto a numerosos factores socio-económicos difícilmente previsibles en el tiempo, pero fácilmente monitorizables según unos patrones determinados vinculados a la normatividad, el número de habitantes, el ahorro medio, etc. Como consecuencia, para el diseño del sistema de optimización de la vivienda crecedera, se utilizaron patrones evolutivos. Dichos patrones, alejados ya del concepto espacial y morfológico usualmente utilizado en arquitectura por figuras como C. Alexander o J. Habraken, pasaron a entenderse como una secuencia de eventos en el tiempo (espaciales, sociales, económicos, legales, etc.), que describen el proceso de transformación y que son peculiares de cada vivienda. De esta manera, el tiempo adquirió una especial importancia al convertirse en otro material más del proyecto arquitectónico. Fue en la construcción de los patrones donde se identificaron los mencionados mecanismos de ampliación, entendidos también como sistemas de compactación de la ciudad a través de la ocupación tridimensional del espacio. Al estudiar la densidad, mediante los conceptos de holgura y hacinamiento, se aceptó la congestión de las ciudades como un valor positivo. De esta forma, las posibles transformaciones realizadas por los habitantes (previstas desde un inicio) sobre el escenario del habitar (vivienda semilla), se convirtieron también en herramientas de proyecto urbano que responden a condicionantes del lugar y de los habitantes con distintas intensidades de crecimiento, ocupación y densidad. Igualmente, en el proceso de diseño del sistema de optimización, se detectaron las estrategias para la adaptabilidad y transformación de la casa crecedera, es decir, aquella serie de acciones encaminadas a la alteración de la vivienda para facilitar su ampliación, y que engloban desde sistemas constructivos en espera, que facilitan las costuras entre crecimiento y vivienda semilla, hasta sistemas espaciales que permiten que la casa altere su uso transformándose en un hábitat productivo o en un artefacto de renta. Así como los mecanismos de ampliación están asociados a la morfología, se descubrió que su uso es independiente de la localización, y que las estrategias de adaptabilidad de la vivienda se encuentran ligadas a sistemas constructivos o procesos de gestión vinculados a una región concreta. De esta manera, la combinación de los mecanismos con las estrategias caracterizan el proceso de evolución de la vivienda, vinculándola a unos determinados condicionantes sociales, geográficos y por tanto, constructivos. Finalmente, a través de la adecuada combinación de mecanismos de ampliación y estrategias de adaptabilidad en el proyecto de la vivienda con crecimiento programado es posible optimizar su desarrollo en términos económicos, constructivos, sociales y espaciales. Como resultado, esto ayudaría no sólo a mejorar la vida de los habitantes de la vivienda semilla en términos cualitativos y cuantitativos, sino también a compactar las ciudades mediante sistemas incluyentes, ya que las casas crecederas proporcionan una mayor complejidad de usos y diversidad de relaciones sociales. ABSTRACT The growing house concept -as we currently know it- was used for the first time back in 1932 in the competition Das Wachsende Haus organized by Martin Wagner and Hans Poelzig during the International Exhibition Sonne, Luft und Haus für alle, promoted by Berlin's Tourist Office. In that competition this type of housing was defined as a basic cell or a seed house unit, and depending on the needs and capabilities of the residents it could grow by adding rooms and defining itself as a complete house unit during each growing stage. Many world-top class architects such as Walter Gropius, Bruno Taut, Erich Mendelsohn or Hans Scharoun, were part of this competition exploring a new path in the flexible housing field, the scheduled grownth. From that moment and on, in Europe -and subsequently in the USA and other developed areas- many theorical and pragmatical researchs were directed towards the growing house phenomena, coming from an initial approach related to innovation, spacial and technical innovation. Furthermore -inside the traditional architecture frame in other countries, growing houses were already tested in the XVIII century- mainly due to the size were more affordable in the Real State Market. Since the 30's decade many developing countries had to deal with massive migration movements from the countryside to cities, building large housing developments were -in many cases- formed by growing housing units. In all of these developing countries the growing house approach was drawn from a different perspective than in the developed countries. An economy of means was prioritized, the utilization of low cost construction systems and -in many cases- a guided self-construction was prioritized versus the prefabricated constructions set by specialized technics that were proposed -for instance- in the European cases. To proceed with this research, information from these -and other- housing units was gathered. From then and on different ways to perform the growing actions were identified, according to its relative position from the seed house unit, these ways were named as addition or enlargement mechanisms indifferently utilized without adknowledging the geographic location for each house. The question of why one addition mechanism is preferred over another in any given case became the main target of this Thesis; the ellaboration of an analysis and diagnosis system for the growing house -according to certain parameters- would allow to point out which is the addition or addition process more efficient for a certain family in a particular location. As a starting point the grownth of the housing unit is directly linked to the evolution of the family unit that lives on it, so the house becomes a dynamic habitat. The complexity and the variability of the phenomena was taken into consideration related to a great number of socio-economic factors hardly able to be foreseen ahead on time but easy to be monitored according to certain patterns linked to regulation, population, average savings, etc As a consequence, to design the optimization system for the growing house, evolutionary patterns were utilized. Those patterns far away from the spatial and morphologic concept normally utilized in Architecture by characters like C. Alexander or J. Habraken, started to be understood like a sequence of events on time (spatial events, social events, economic events, legal events, etc) that describes the transformation process and that are particular for each housing unit. Therefore time became something important as another ingredient in the Architectural Project. The before mentioned addition or enlargement mechanisms were identified while building the patterns; these mechanisms were also understood as city's system of compactation through the tridimendional ocupation of space. Studying density, thorough the concepts of comfort and overcrowding, traffic congestion in the city was accepted as a positive value. This way, the possible transformations made by the residents (planned from the begining) about the residencial scenary (seed house), also became tools of the urban project that are a response to site's distinctive features and to the residents with different grownth intensities, activities and density Likewise, during the process of designing the optimization system, strategies for adaptations and transformation of the growing house were detected, in other words, the serial chain of actions directed to modify the house easing its enlargement or addition, and that comprehends from constructive systems on hold -that smooths the costures between grownth and housing seed- to spatial systems that allows that the house modify its utilization, becoming a productive habitat or a rental asset. Because the enlargement mechanisms are linked to the morphology, it was discovered that the use it's not related to the location, and that the adaptation strategies of the houses are linked to constructive systems or management processes linked to a particular area. This way the combination of mechanisms and strategies characterizes the process of housing evolution, linking it to certain social and geographic peculiarities and therefore constructives. At last, through the certain combination of enlargement mechanisms and adaptability strategies in the housing with scheduled grownth project is possible to optimize its development in economic, constructive, social and spatial terms. As a result, this would help not only to improve the life of the seed house residents in qualitative and quantitative terms but also to compact the cities through inclusive systems, given that the growing houses provide a larger complexity of uses and social relations.
Resumo:
Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.