997 resultados para Célula eucariótica
Resumo:
La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.
Resumo:
El proyecto fin de carrera “Sistema Portátil de Medida de Dispositivos Sometidos a Ensayos en Campo” es un proyecto acometido para el desarrollo y evaluación de un sistema de medición portátil y confiable, que permita la realización de mediciones de curvas I-V en campo, en condiciones reales de funcionamiento. Dado que la finalidad de este proyecto fin de carrera es la obtención de un sistema para la realización de mediciones en campo, en la implementación del proyecto se tendrán como requisitos principales de diseño el tamaño, la fuente de alimentación, el peso del sistema, además de la fiabilidad y una relativa precisión en la realización de mediciones. Durante la realización de este proyecto y dados los requerimientos anteriores de portabilidad y fiabilidad, se ha buscado ofrecer una solución de compromiso diseñando un equipamiento que sea realizable, que cumpla con los objetivos anteriores con un coste que no sea elevado y con la característica de que disponga de una facilidad de manejo que permita a cualquier usuario la utilización del mismo. El sistema final diseñado está basado en el dispositivo de adquisición de datos MyDAQ de National Instruments que permite la realización de múltiples tipos de mediciones. En base a este dispositivo de adquisición de datos, se ha diseñado un sistema de medición con una arquitectura que se implementa a través de un ordenador portátil, con un software de medición instalado que recopila e interpreta los datos, y que alimenta y controla al dispositivo a través del puerto USB. El sistema también implementa una carga variable que permite la medición de la curva I-V en iluminación de células o mini-paneles fotovoltaicos. Este diseño permite que para la realización de las mediciones de las curvas I-V en iluminación en campo sólo se requiera conectar el dispositivo de adquisición a un PC portátil con batería y a la carga variable. Aunque este diseño es específico para la medición de células solares se ha implementado de forma que pueda extrapolarse fácilmente a otro tipo de medición de tensión y corriente. Para la comprobación de la precisión del sistema portátil de medidas, durante el proyecto se ha procedido a la comparación de los resultados obtenidos del sistema diseñado con un equipo de caracterización en laboratorio. Dicho sistema de alta exactitud permite cuantificar la degradación real de la célula y establecer una comparación de mediciones con el sistema portátil de medida, ofreciendo resultados satisfactorios en todas las mediciones realizadas y permitiendo concluir la evaluación del sistema portátil como apto para las mediciones de dispositivos en campo. El proceso de evaluación del equipamiento diseñado consistiría en la medida de la curva I-V en laboratorio de un dispositivo fotovoltaico con instrumentación de alta precisión y condiciones controladas de luz y temperatura de un dispositivo, célula o mini-panel. Tras la medida inicial las células se instalarían en campo y se realizaría una caracterización periódica de los dispositivos mediante el sistema portátil de medida, que permitiría evidenciar si en la curva I-V bajo iluminación existe degradación, y en qué zona de la curva. Al finalizar el ensayo o en periodos intermedios se desmontarían los dispositivos para volver a medir la curva I-V con exactitud en laboratorio. Por tanto el sistema portátil de medida, debe permitir evaluar la evolución de la curva I-V en condiciones ambientales similares a obtenidas en medidas anteriores, y a partir de la misma determinar el modo de degradación del dispositivo, no siendo necesaria una elevada precisión de medida para ofrecer resultados exactos de degradación, que sólo podrán medirse en el laboratorio. ABSTRACT. The final degree project "Portable Measurement System For Devices Under Field Tests" is a project undertaken for the development and evaluation of portable and reliable measurement equipment, which allows the realization of I-V curve measurements in field conditions actual operation. Since the purpose of this final project is to obtain a system for conducting field measurements in the implementation of the project will have as main design requirements for size, power supply, system weight, plus reliability and precision relative to the taking of measurements. During the development of this project and given the above requirements portability and reliability, has sought to offer a compromise designing equipment that is achievable, that meets the above objectives with a cost that is not high and the feature that available management facility that allows any user to use it. The final system is designed based on the acquisition device MyDAQ NI data that allows the execution of multiple types of measurements. Based on this data acquisition device, we have designed a measurement system with an architecture that is implemented via a laptop, with measurement software installed that collects and interprets data, and feeds and controls the device through the USB port. The system also implements a variable load which allows measurement of the I-V curve lighting photovoltaic cells. This design allows performing measurements of I-V curves in lighting field is only required to connect the device to purchase a laptop with a battery and variable load. Although this design is specific for the measurement of solar cells has been implemented so that it can easily be extrapolated to other types of measuring voltage and current. To test the accuracy of the portable measurement system during the project has been carried out to compare the results of the designed system, a team of laboratory characterization. This system of high accuracy to quantify the actual degradation of the cell and a comparison of measurements with portable measurement system, providing satisfactory results in all measurements and allowing complete portable system assessment as suitable for measurements of devices field. The evaluation process designed equipment would be far laboratory I-V curve of a photovoltaic device with high precision instrumentation controlled light and temperature of a device, panel or mini-cell conditions. After initial measurement cells settle in a periodic field and device characterization will be achieved through the portable measurement system, which would show whether the I-V curve under illumination degradation exists, and in which area of the curve. At the end of the trial or in interim periods devices to remeasure the I-V curve accurately in laboratory dismount. Therefore the portable measurement system should allow evaluating the evolution of the I-V curve similar to previous measurements obtained in ambient conditions, and from it determine the mode of degradation of the device, not a high measurement accuracy to be necessary to provide degradation accurate results, which can only be measured in the laboratory.
Resumo:
Partimos de una colección de neuronas digitalizadas que descargaremos de la mayor base de datos libre y accesible vía web que existe actualmente llamada NeuroMorpho (Ascoli et al. (2007)) y ubicada en http://neuromorpho.org. A partir de los atributos que extraeremos de las células con el software L-Measure clasificaremos las distintas neuronas por especies, género, tipo de célula, región del cerebro y edad utilizando los algoritmos de aprendizaje automático disponibles en el software Weka. Por último estudiaremos los resultados obtenidos. En el capítulo de resultados obtenidos se describen los datos presentados por los distintos investigadores que han realizado los estudios manualmente, tratando las neuronas una a una y los compararemos con los que hemos obtenido computacionalmente. Veremos las diferencias y similitudes, y podremos verificar la robustez de nuestros resultados. Gracias a la capacidad actual de los ordenadores y a los avances en inteligencia artificial descubriremos atributos para diferenciar clases que no se conocían por las limitaciones humanas, además de poder ratificar aquellos que ya se utilizan.
Resumo:
El trabajo que ha dado lugar a esta Tesis Doctoral se enmarca en la invesitagación en células solares de banda intermedia (IBSCs, por sus siglas en inglés). Se trata de un nuevo concepto de célula solar que ofrece la posibilidad de alcanzar altas eficiencias de conversión fotovoltaica. Hasta ahora, se han demostrado de manera experimental los fundamentos de operación de las IBSCs; sin embargo, esto tan sólo has sido posible en condicines de baja temperatura. El concepto de banda intermedia (IB, por sus siglas en inglés) exige que haya desacoplamiento térmico entre la IB y las bandas de valencia y conducción (VB and CB, respectivamente, por sus siglas en inglés). Los materiales de IB actuales presentan un acoplamiento térmico demasiado fuerte entre la IB y una de las otras dos bandas, lo cual impide el correcto funcionamiento de las IBSCs a temperatura ambiente. En el caso particular de las IBSCs fabricadas con puntos cuánticos (QDs, por sus siglas en inglés) de InAs/GaAs - a día de hoy, la tecnología de IBSC más estudiada - , se produce un rápido intercambio de portadores entre la IB y la CB, por dos motivos: (1) una banda prohibida estrecha (< 0.2 eV) entre la IB y la CB, E^, y (2) la existencia de niveles electrónicos entre ellas. El motivo (1) implica, a su vez, que la máxima eficiencia alcanzable en estos dispositivos es inferior al límite teórico de la IBSC ideal, en la cual E^ = 0.71 eV. En este contexto, nuestro trabajo se centra en el estudio de IBSCs de alto gap (o banda prohibida) fabricadsas con QDs, o lo que es lo mismo, QD-IBSCs de alto gap. Hemos fabricado e investigado experimentalmente los primeros prototipos de QD-IBSC en los que se utiliza AlGaAs o InGaP para albergar QDs de InAs. En ellos demostramos une distribución de gaps mejorada con respecto al caso de InAs/GaAs. En concreto, hemos medido valores de E^ mayores que 0.4 eV. En los prototipos de InAs/AlGaAs, este incremento de E^ viene acompaado de un incremento, en más de 100 meV, de la energía de activación del escape térmico. Además, nuestros dispositivos de InAs/AlGaAs demuestran conversión a la alza de tensión; es decir, la producción de una tensión de circuito abierto mayor que la energía de los fotones (dividida por la carga del electrón) de un haz monocromático incidente, así como la preservación del voltaje a temperaura ambiente bajo iluminación de luz blanca concentrada. Asimismo, analizamos el potencial para detección infrarroja de los materiales de IB. Presentamos un nuevo concepto de fotodetector de infrarrojos, basado en la IB, que hemos llamado: fotodetector de infrarrojos activado ópticamente (OTIP, por sus siglas en inglés). Nuestro novedoso dispositivo se basa en un nuevo pricipio físico que permite que la detección de luz infrarroja sea conmutable (ON y OFF) mediante iluminación externa. Hemos fabricado un OTIP basado en QDs de InAs/AlGaAs con el que demostramos fotodetección, bajo incidencia normal, en el rango 2-6/xm, activada ópticamente por un diodoe emisor de luz de 590 nm. El estudio teórico del mecanismo de detección asistido por la IB en el OTIP nos lleva a poner en cuestión la asunción de quasi-niveles de Fermi planos en la zona de carga del espacio de una célula solar. Apoyados por simuaciones a nivel de dispositivo, demostramos y explicamos por qué esta asunción no es válida en condiciones de corto-circuito e iluminación. También llevamos a cabo estudios experimentales en QD-IBSCs de InAs/AlGaAs con la finalidad de ampliar el conocimiento sobre algunos aspectos de estos dispositivos que no han sido tratados aun. En particular, analizamos el impacto que tiene el uso de capas de disminución de campo (FDLs, por sus siglas en inglés), demostrando su eficiencia para evitar el escape por túnel de portadores desde el QD al material anfitrión. Analizamos la relación existente entre el escape por túnel y la preservación del voltaje, y proponemos las medidas de eficiencia cuántica en función de la tensión como una herramienta útil para evaluar la limitación del voltaje relacionada con el túnel en QD-IBSCs. Además, realizamos medidas de luminiscencia en función de la temperatura en muestras de InAs/GaAs y verificamos que los resltados obtenidos están en coherencia con la separación de los quasi-niveles de Fermi de la IB y la CB a baja temperatura. Con objeto de contribuir a la capacidad de fabricación y caracterización del Instituto de Energía Solar de la Universidad Politécnica de Madrid (IES-UPM), hemos participado en la instalación y puesta en marcha de un reactor de epitaxia de haz molecular (MBE, por sus siglas en inglés) y el desarrollo de un equipo de caracterización de foto y electroluminiscencia. Utilizando dicho reactor MBE, hemos crecido, y posteriormente caracterizado, la primera QD-IBSC enteramente fabricada en el IES-UPM. ABSTRACT The constituent work of this Thesis is framed in the research on intermediate band solar cells (IBSCs). This concept offers the possibility of achieving devices with high photovoltaic-conversion efficiency. Up to now, the fundamentals of operation of IBSCs have been demonstrated experimentally; however, this has only been possible at low temperatures. The intermediate band (IB) concept demands thermal decoupling between the IB and the valence and conduction bands. Stateof- the-art IB materials exhibit a too strong thermal coupling between the IB and one of the other two bands, which prevents the proper operation of IBSCs at room temperature. In the particular case of InAs/GaAs quantum-dot (QD) IBSCs - as of today, the most widely studied IBSC technology - , there exist fast thermal carrier exchange between the IB and the conduction band (CB), for two reasons: (1) a narrow (< 0.2 eV) energy gap between the IB and the CB, EL, and (2) the existence of multiple electronic levels between them. Reason (1) also implies that maximum achievable efficiency is below the theoretical limit for the ideal IBSC, in which EL = 0.71 eV. In this context, our work focuses on the study of wide-bandgap QD-IBSCs. We have fabricated and experimentally investigated the first QD-IBSC prototypes in which AlGaAs or InGaP is the host material for the InAs QDs. We demonstrate an improved bandgap distribution, compared to the InAs/GaAs case, in our wide-bandgap devices. In particular, we have measured values of EL higher than 0.4 eV. In the case of the AlGaAs prototypes, the increase in EL comes with an increase of more than 100 meV of the activation energy of the thermal carrier escape. In addition, in our InAs/AlGaAs devices, we demonstrate voltage up-conversion; i. e., the production of an open-circuit voltage larger than the photon energy (divided by the electron charge) of the incident monochromatic beam, and the achievement of voltage preservation at room temperature under concentrated white-light illumination. We also analyze the potential of an IB material for infrared detection. We present a IB-based new concept of infrared photodetector that we have called the optically triggered infrared photodetector (OTIP). Our novel device is based on a new physical principle that allows the detection of infrared light to be switched ON and OFF by means of an external light. We have fabricated an OTIP based on InAs/AlGaAs QDs with which we demonstrate normal incidence photodetection in the 2-6 /xm range optically triggered by a 590 nm light-emitting diode. The theoretical study of the IB-assisted detection mechanism in the OTIP leads us to questioning the assumption of flat quasi-Fermi levels in the space-charge region of a solar cell. Based on device simulations, we prove and explain why this assumption is not valid under short-circuit and illumination conditions. We perform new experimental studies on InAs/GaAs QD-IBSC prototypes in order to gain knowledge on yet unexplored aspects of the performance of these devices. Specifically, we analyze the impact of the use of field-damping layers, and demonstrate this technique to be efficient for avoiding tunnel carrier escape from the QDs to the host material. We analyze the relationship between tunnel escape and voltage preservation, and propose voltage-dependent quantum efficiency measurements as an useful technique for assessing the tunneling-related limitation to the voltage preservation of QD-IBSC prototypes. Moreover, we perform temperature-dependent luminescence studies on InAs/GaAs samples and verify that the results are consistent with a split of the quasi-Fermi levels for the CB and the IB at low temperature. In order to contribute to the fabrication and characterization capabilities of the Solar Energy Institute of the Universidad Polite´cnica de Madrid (IES-UPM), we have participated in the installation and start-up of an molecular beam epitaxy (MBE) reactor and the development of a photo and electroluminescence characterization set-up. Using the MBE reactor, we have manufactured and characterized the first QD-IBSC fully fabricated at the IES-UPM.
Resumo:
Esta Tesis trata sobre el desarrollo y crecimiento -mediante tecnología MOVPE (del inglés: MetalOrganic Vapor Phase Epitaxy)- de células solares híbridas de semiconductores III-V sobre substratos de silicio. Esta integración pretende ofrecer una alternativa a las células actuales de III-V, que, si bien ostentan el récord de eficiencia en dispositivos fotovoltaicos, su coste es, a día de hoy, demasiado elevado para ser económicamente competitivo frente a las células convencionales de silicio. De este modo, este proyecto trata de conjugar el potencial de alta eficiencia ya demostrado por los semiconductores III-V en arquitecturas de células fotovoltaicas multiunión con el bajo coste, la disponibilidad y la abundancia del silicio. La integración de semiconductores III-V sobre substratos de silicio puede afrontarse a través de diferentes aproximaciones. En esta Tesis se ha optado por el desarrollo de células solares metamórficas de doble unión de GaAsP/Si. Mediante esta técnica, la transición entre los parámetros de red de ambos materiales se consigue por medio de la formación de defectos cristalográficos (mayoritariamente dislocaciones). La idea es confinar estos defectos durante el crecimiento de sucesivas capas graduales en composición para que la superficie final tenga, por un lado, una buena calidad estructural, y por otro, un parámetro de red adecuado. Numerosos grupos de investigación han dirigido sus esfuerzos en los últimos años en desarrollar una estructura similar a la que aquí proponemos. La mayoría de éstos se han centrado en entender los retos asociados al crecimiento de materiales III-V, con el fin de conseguir un material de alta calidad cristalográfica. Sin embargo, prácticamente ninguno de estos grupos ha prestado especial atención al desarrollo y optimización de la célula inferior de silicio, cuyo papel va a ser de gran relevancia en el funcionamiento de la célula completa. De esta forma, y con el fin de completar el trabajo hecho hasta el momento en el desarrollo de células de III-V sobre silicio, la presente Tesis se centra, fundamentalmente, en el diseño y optimización de la célula inferior de silicio, para extraer su máximo potencial. Este trabajo se ha estructurado en seis capítulos, ordenados de acuerdo al desarrollo natural de la célula inferior. Tras un capítulo de introducción al crecimiento de semiconductores III-V sobre Si, en el que se describen las diferentes alternativas para su integración; nos ocupamos de la parte experimental, comenzando con una extensa descripción y caracterización de los substratos de silicio. De este modo, en el Capítulo 2 se analizan con exhaustividad los diferentes tratamientos (tanto químicos como térmicos) que deben seguir éstos para garantizar una superficie óptima sobre la que crecer epitaxialmente el resto de la estructura. Ya centrados en el diseño de la célula inferior, el Capítulo 3 aborda la formación de la unión p-n. En primer lugar se analiza qué configuración de emisor (en términos de dopaje y espesor) es la más adecuada para sacar el máximo rendimiento de la célula inferior. En este primer estudio se compara entre las diferentes alternativas existentes para la creación del emisor, evaluando las ventajas e inconvenientes que cada aproximación ofrece frente al resto. Tras ello, se presenta un modelo teórico capaz de simular el proceso de difusión de fosforo en silicio en un entorno MOVPE por medio del software Silvaco. Mediante este modelo teórico podemos determinar qué condiciones experimentales son necesarias para conseguir un emisor con el diseño seleccionado. Finalmente, estos modelos serán validados y constatados experimentalmente mediante la caracterización por técnicas analíticas (i.e. ECV o SIMS) de uniones p-n con emisores difundidos. Uno de los principales problemas asociados a la formación del emisor por difusión de fósforo, es la degradación superficial del substrato como consecuencia de su exposición a grandes concentraciones de fosfina (fuente de fósforo). En efecto, la rugosidad del silicio debe ser minuciosamente controlada, puesto que éste servirá de base para el posterior crecimiento epitaxial y por tanto debe presentar una superficie prístina para evitar una degradación morfológica y cristalográfica de las capas superiores. En este sentido, el Capítulo 4 incluye un análisis exhaustivo sobre la degradación morfológica de los substratos de silicio durante la formación del emisor. Además, se proponen diferentes alternativas para la recuperación de la superficie con el fin de conseguir rugosidades sub-nanométricas, que no comprometan la calidad del crecimiento epitaxial. Finalmente, a través de desarrollos teóricos, se establecerá una correlación entre la degradación morfológica (observada experimentalmente) con el perfil de difusión del fósforo en el silicio y por tanto, con las características del emisor. Una vez concluida la formación de la unión p-n propiamente dicha, se abordan los problemas relacionados con el crecimiento de la capa de nucleación de GaP. Por un lado, esta capa será la encargada de pasivar la subcélula de silicio, por lo que su crecimiento debe ser regular y homogéneo para que la superficie de silicio quede totalmente pasivada, de tal forma que la velocidad de recombinación superficial en la interfaz GaP/Si sea mínima. Por otro lado, su crecimiento debe ser tal que minimice la aparición de los defectos típicos de una heteroepitaxia de una capa polar sobre un substrato no polar -denominados dominios de antifase-. En el Capítulo 5 se exploran diferentes rutinas de nucleación, dentro del gran abanico de posibilidades existentes, para conseguir una capa de GaP con una buena calidad morfológica y estructural, que será analizada mediante diversas técnicas de caracterización microscópicas. La última parte de esta Tesis está dedicada al estudio de las propiedades fotovoltaicas de la célula inferior. En ella se analiza la evolución de los tiempos de vida de portadores minoritarios de la base durante dos etapas claves en el desarrollo de la estructura Ill-V/Si: la formación de la célula inferior y el crecimiento de las capas III-V. Este estudio se ha llevado a cabo en colaboración con la Universidad de Ohio, que cuentan con una gran experiencia en el crecimiento de materiales III-V sobre silicio. Esta tesis concluye destacando las conclusiones globales del trabajo realizado y proponiendo diversas líneas de trabajo a emprender en el futuro. ABSTRACT This thesis pursues the development and growth of hybrid solar cells -through Metal Organic Vapor Phase Epitaxy (MOVPE)- formed by III-V semiconductors on silicon substrates. This integration aims to provide an alternative to current III-V cells, which, despite hold the efficiency record for photovoltaic devices, their cost is, today, too high to be economically competitive to conventional silicon cells. Accordingly, the target of this project is to link the already demonstrated efficiency potential of III-V semiconductor multijunction solar cell architectures with the low cost and unconstrained availability of silicon substrates. Within the existing alternatives for the integration of III-V semiconductors on silicon substrates, this thesis is based on the metamorphic approach for the development of GaAsP/Si dual-junction solar cells. In this approach, the accommodation of the lattice mismatch is handle through the appearance of crystallographic defects (namely dislocations), which will be confined through the incorporation of a graded buffer layer. The resulting surface will have, on the one hand a good structural quality; and on the other hand the desired lattice parameter. Different research groups have been working in the last years in a structure similar to the one here described, being most of their efforts directed towards the optimization of the heteroepitaxial growth of III-V compounds on Si, with the primary goal of minimizing the appearance of crystal defects. However, none of these groups has paid much attention to the development and optimization of the bottom silicon cell, which, indeed, will play an important role on the overall solar cell performance. In this respect, the idea of this thesis is to complete the work done so far in this field by focusing on the design and optimization of the bottom silicon cell, to harness its efficiency. This work is divided into six chapters, organized according to the natural progress of the bottom cell development. After a brief introduction to the growth of III-V semiconductors on Si substrates, pointing out the different alternatives for their integration; we move to the experimental part, which is initiated by an extensive description and characterization of silicon substrates -the base of the III-V structure-. In this chapter, a comprehensive analysis of the different treatments (chemical and thermal) required for preparing silicon surfaces for subsequent epitaxial growth is presented. Next step on the development of the bottom cell is the formation of the p-n junction itself, which is faced in Chapter 3. Firstly, the optimization of the emitter configuration (in terms of doping and thickness) is handling by analytic models. This study includes a comparison between the different alternatives for the emitter formation, evaluating the advantages and disadvantages of each approach. After the theoretical design of the emitter, it is defined (through the modeling of the P-in-Si diffusion process) a practical parameter space for the experimental implementation of this emitter configuration. The characterization of these emitters through different analytical tools (i.e. ECV or SIMS) will validate and provide experimental support for the theoretical models. A side effect of the formation of the emitter by P diffusion is the roughening of the Si surface. Accordingly, once the p-n junction is formed, it is necessary to ensure that the Si surface is smooth enough and clean for subsequent phases. Indeed, the roughness of the Si must be carefully controlled since it will be the basis for the epitaxial growth. Accordingly, after quantifying (experimentally and by theoretical models) the impact of the phosphorus on the silicon surface morphology, different alternatives for the recovery of the surface are proposed in order to achieve a sub-nanometer roughness which does not endanger the quality of the incoming III-V layers. Moving a step further in the development of the Ill-V/Si structure implies to address the challenges associated to the GaP on Si nucleation. On the one hand, this layer will provide surface passivation to the emitter. In this sense, the growth of the III-V layer must be homogeneous and continuous so the Si emitter gets fully passivated, providing a minimal surface recombination velocity at the interface. On the other hand, the growth should be such that the appearance of typical defects related to the growth of a polar layer on a non-polar substrate is minimized. Chapter 5 includes an exhaustive study of the GaP on Si nucleation process, exploring different nucleation routines for achieving a high morphological and structural quality, which will be characterized by means of different microscopy techniques. Finally, an extensive study of the photovoltaic properties of the bottom cell and its evolution during key phases in the fabrication of a MOCVD-grown III-V-on-Si epitaxial structure (i.e. the formation of the bottom cell; and the growth of III-V layers) will be presented in the last part of this thesis. This study was conducted in collaboration with The Ohio State University, who has extensive experience in the growth of III-V materials on silicon. This thesis concludes by highlighting the overall conclusions of the presented work and proposing different lines of work to be undertaken in the future.
Resumo:
Las NADPH oxidasas de plantas, denominadas “respiratory burst oxidase homologues” (RBOHs), producen especies reactivas del oxígeno (ROS) que median un amplio rango de funciones. En la célula vegetal, el ajuste preciso de la producción de ROS aporta la especificidad de señal para generar una respuesta apropiada ante las amenazas ambientales. RbohD y RbohF, dos de los diez genes Rboh de Arabidopsis, son pleiotrópicos y median diversos procesos fisiológicos en respuesta a patógenos. El control espacio-temporal de la expresión de los genes RbohD y RbohF podría ser un aspecto crítico para determinar la multiplicidad de funciones de estas oxidasas. Por ello, generamos líneas transgénicas de Arabidopsis con fusiones de los promoters de RbohD y RbohF a los genes delatores de la B-glucuronidasa y la luciferasa. Estas líneas fueron empleadas para revelar el patrón de expresión diferencial de RbohD y RbohF durante la respuesta inmune de Arabidopsis a la bacteria patógena Pseudomonas syringae pv. tomato DC3000, el hongo necrótrofo Plectosphaerella cucumerina y en respuesta a señales relacionadas con la respuesta inmune. Nuestros experimentos revelan un patrón de expresión diferencial de los promotores de RbohD y RbohF durante el desarrollo de la planta y en la respuesta inmune de Arabidopsis. Además hemos puesto de manifiesto que existe una correlación entre el nivel de actividad de los promotores de RbohD y RbohF con la acumulación de ROS y el nivel de muerte celular en respuesta a patógenos. La expression de RbohD y RbohF también es modulada de manera diferencial en respuesta a patrones moleculares asociados a patógenos (PAMPs) y por ácido abscísico (ABA). Cabe destacar que, mediante una estrategia de intercambio de promotores, hemos revelado que la región promotora de RbohD, es necesaria para dirigir la producción de ROS en respuesta a P. cucumerina. Adicionalmente, la activación del promotor de RbohD en respuesta al aislado de P. cucumerina no adaptado a Arabidopsis 2127, nos llevó a realizar ensayos de susceptibilidad con el doble mutante rbohD rbohF que han revelado un papel desconocido de estas oxidasas en resistencia no-huesped. La interacción entre la señalización dependiente de las RBOHs y otros componentes de la respuesta inmune de plantas podría explicar también las distintas funciones que median estas oxidasas en relación con la respuesta inmune. Entre la gran cantidad de señales coordinadas con la actividad de las RBOHs, existen evidencias genéticas y farmacológicas que indican que las proteínas G heterotriméricas están implicadas en algunas de las rutas de señalización mediadas por ROS derivadas de los RBOHs en respuesta a señales ambientales. Por ello hemos estudiado la relación entre estas RBOH-NADPH oxidasas y AGB1, la subunidad β de las proteínas G heterotriméricas en la respuesta inmune de Arabidopsis. Análisis de epistasis indican que las proteínas G heterotriméricas están implicadas en distintas rutas de señalización en defensa mediadas por las RBOHs. Nuestros resultados ilustran la relación compleja entre la señalización mediada por las RBOHs y las proteínas G heterotriméricas, que varía en función de la interacción planta-patógeno analizada. Además, hemos explorado la posible asociación entre AGB1 con RBOHD y RBOHF en eventos tempranos de la respuesta immune. Cabe señalar que experimentos de coímmunoprecipitación apuntan a una posible asociación entre AGB1 y la kinasa citoplasmática reguladora de RBOHD, BIK1. Esto indica un posible mecanismo de control de la función de esta NADPH oxidase por AGB1. En conjunto, estos datos aportan nuevas perspectivas sobre cómo, a través del control transcripcional o mediante la interacción con las proteínas G heterotriméricas, las NADPH oxidases de plantas median la producción de ROS y la señalización por ROS en la respuesta inmune. Nuestro trabajo ejemplifica cómo la regulación diferencial de dos miembros de una familia multigénica, les permite realizar distintas funciones fisiológicas especializadas usando un mismo mecanismo enzimático. ABSTRACT The plant NADPH oxidases, termed respiratory burst oxidase homologues (RBOHs), produce reactive oxygen species (ROS) which mediate a wide range of functions. Fine tuning this ROS production provides the signaling specificity to the plant cell to produce the appropriate response to environmental threats. RbohD and RbohF, two of the ten Rboh genes present in Arabidopsis, are pleiotropic and mediate diverse physiological processes in response to pathogens. One aspect that may prove critical to determine the multiplicity of functions of RbohD and RbohF is the spatio-temporal control of their gene expression. Thus, we generated Arabidopsis transgenic lines with RbohD- and RbohF-promoter fusions to the β-glucuronidase and the luciferase reporter genes. These transgenics were employed to reveal RbohD and RbohF promoter activity during Arabidopsis immune response to the pathogenic bacterium Pseudomonas syringae pv tomato DC3000, the necrotrophic fungus Plectosphaerella cucumerina and in response to immunity-related cues. Our experiments revealed a differential expression pattern of RbohD and RbohF throughout plant development and during Arabidopsis immune response. Moreover, we observed a correlation between the level of RbohD and RbohF promoter activity, the accumulation of ROS and the amount of cell death in response to pathogens. RbohD and RbohF gene expression was also differentially modulated by pathogen associated molecular patterns and abscisic acid. Interestingly, a promoter-swap strategy revealed the requirement for the promoter region of RbohD to drive the production of ROS in response to P. cucumerina. Additionally, since the RbohD promoter was activated during Arabidopsis interaction with a non-adapted P. cucumerina isolate 2127, we performed susceptibility tests to this fungal isolate that uncovered a new role of these oxidases on non-host resistance. The interplay between RBOH-dependent signaling with other components of the plant immune response might also explain the different immunity-related functions mediated by these oxidases. Among the plethora of signals coordinated with RBOH activity, pharmacological and genetic evidence indicates that heterotrimeric G proteins are involved in some of the signaling pathways mediated by RBOH–derived ROS in response to environmental cues. Therefore, we analysed the interplay between these RBOH-NADPH oxidases and AGB1, the Arabidopsis β-subunit of heterotrimeric G proteins during Arabidopsis immune response. We carried out epistasis studies that allowed us to test the implication of AGB1 in different RBOH-mediated defense signaling pathways. Our results illustrate the complex relationship between RBOH and heterotrimeric G proteins signaling, that varies depending on the type of plant-pathogen interaction. Furthermore, we tested the potential association between AGB1 with RBOHD and RBOHF during early immunity. Interestingly, our co-immunoprecipitation experiments point towards an association of AGB1 and the RBOHD regulatory kinase BIK1, thus providing a putative mechanism in the control of the NADPH oxidase function by AGB1. Taken all together, these studies provide further insights into the role that transcriptional control or the interaction with heterotrimeric G-proteins have on RBOH-NADPH oxidase-dependent ROS production and signaling in immunity. Our work exemplifies how, through a differential regulation, two members of a multigenic family achieve specialized physiological functions using a common enzymatic mechanism.
Resumo:
Resulta interesante comprender como microorganismos sencillos como la bacteria Escherichia coli poseen mecanismos no tan simples para responder al entorno en el que está gestionada por complicadas redes de regulación formadas por genes y proteínas, donde cada elemento de la red genética debe tomar parte en armonía, en el momento justo y la cantidad adecuada para dar lugar a la respuesta celular apropiada. La biología sintética es un nuevo área de la biología y la tecnología que fusiona la biolog ía molecular, la ingeniería genética y las herramientas computacionales, para crear sistemas biológicos con funcionalidades novedosas. Los sistemas creados sintéticamente son ya una realidad, y cada vez se acumulan más trabajos alrededor del mundo que muestran su factibilidad. En este campo no solo se hacen pequeñas modificaciones en la información genética, sino que también se diseñan, manipulan e introducen circuitos genéticos a los organismos. Actualmente, se hace un gran esfuerzo para construir circuitos genéticos formados por numerosos genes y caracterizar la interacción de los mismos con otras moléculas, su regulaci ón, expresión y funcionalidad en diferentes organismos. La mayoría de los proyectos de biología sintética que se han desarrollado hasta ahora, se basan en el conocimiento actual del funcionamiento de los organismos vivos. Sin embargo, la información es numerosa y creciente, por lo que se requiere de herramientas computacionales y matem áticas para integrar y hacer manejable esta gran cantidad de información. El simulador de colonias bacterianas GRO posee la capacidad de representar las dinámicas más simples del comportamiento celular, tales como crecimiento, división y comunicación intercelular mediante conjugación, pero carece de la capacidad de simular el comportamiento de la colonia en presencia de un circuito genético. Para ello, se ha creado un nuevo módulo de regulación genética que maneja las interaciones entre genes y proteínas de cada célula ejecutando respuestas celulares específicas. Dado que en la mayoría de los experimentos intervienen colonias del orden de 105 individuos, es necesario un módulo de regulación genética simplificado que permita representar de la forma más precisa posible este proceso en colonias de tales magnitudes. El módulo genético integrado en GRO se basa en una red booleana, en la que un gen puede transitar entre dos estados, on (expresado) o off (reprimido), y cuya transición viene dada por una serie de reglas lógicas.---ABSTRACT---It is interesting to understand how simple organisms such as Escherichia coli do not have simple mechanisms to respond to the environment in which they find themselves. This response is managed by complicated regulatory networks formed by genes and proteins, where each element of the genetic network should take part in harmony, at the right time and with the right amount to give rise to the appropriate cellular response. Synthetic biology is a new area of biology and technology that combines molecular biology, genetic engineering and computational tools to create biological systems with novel features. The synthetically created systems are already a reality, and increasingly accumulate work around the world showing their feasibility. In this field not only minor changes are made in the genetic information but also genetic circuits designed, manipulated and introduced into the organisms. Currently, it takes great effort to build genetic circuits formed by numerous genes and characterize their interaction with other molecules, their regulation, their expression and their function in different organisms. Most synthetic biology projects that have been developed so far are based on the current knowledge of the functioning of living organisms. However, there is a lot of information and it keeps accumulating, so it requires computational and mathematical tools to integrate and manage this wealth of information. The bacterial colonies simulator, GRO, has the ability to represent the simplest dynamics of cell behavior, such as growth, division and intercellular communication by conjugation, but lacks the ability to simulate the behavior of the colony in the presence of a genetic circuit. To this end, a new genetic regulation module that handles interactions between genes and proteins for each cell running specific cellular responses has been created. Since most experiments involve colonies of about 105 individuals, a simplified genetic module which represent cell dynamics as accurately and simply as possible is needed. The integrated genetic GRO module is based on a Boolean network, in which a gene can be in either of two states, on (expressed) or off (repressed), and whose transition is given by a set of logical rules.
Design and Simulation of Deep Nanometer SRAM Cells under Energy, Mismatch, and Radiation Constraints
Resumo:
La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.
Resumo:
Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.
Resumo:
As tecnologias de sementeira directa e agricultura de precisão podem conciliar-se num novo conceito de sementeira directa de precisão. Desta forma, neste ensaio ambas as tecnologias permitiram provar que variações da resistência de penetração do solo afectam a qualidade da operação de sementeira no que respeita à uniformidade de profundidade de distribuição da semente. A utilização de um equipamento de GPS na georeferenciação de uma sementeira de milho, e a montagem de uma célula de carga e de um sensor LVDT numa das linhas de um semeador mecânico monogrão permitiram avaliar a variação da força exercida sobre o solo pelo braço de sementeira e a respectiva variação de profundidade de deposição da semente. Os resultados mostram uma correlação moderada de 0.4 para as classes de Força de 0-735N, 735-882N e 882-1176N com as classes de profundidades de 0-10mm, 10-20mm e 20-30mm, respectivamente. Apesar de mais ensaios serem necessários para a consolidação dos valores obtidos, atendendo à importância que a sementeira directa tem no panorama dos sistemas de agricultura de conservação em Portugal, estes resultados mostram o interesse no desenvolvimento de sistemas de controlo de pressão dinâmicos nos semeadores de sementeira directa de modo a reduzir as variações encontradas.
Resumo:
La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.
Resumo:
En éste trabajo se ofrece la realización de una célula elemental programable ópticamente, capaz de realizar hasta siete operaciones lógicas, constituyendo catorce pares de salida. El principio innovador de la célula, es el uso de fibras ópticas multimodo, enlazadas mediante acopladores convencionales de COs, a 1,3 fim. Como fuentes de radiación óptica se han empleado LEDs de bajo costo, constituyendo esto una nueva ventaja sobre otras células presentadas en la literatura del tema.
Resumo:
Una célula TEM es un sistema concebido para conseguir en una determinada zona del espacio un campo electromagnético de forma controlada cuyo comportamiento tienda lo más posible al de una onda plana, aprovechando para ello ciertas propiedades asociadas al modo TEM. En este proyecto se analizan, desde el punto de vista electromagnnético, algunos tipos de células TEM. Tras una breve descripción de las diferentes geometrías que éstas pueden tomar y de las aplicaciones asociadas a las mismas, se estudian algunas de las técnicas de ajuste de campo (Resonancia Transversal y Ajuste Modal) con el fin de obtener los conocimientos necesarios para implementar una herramienta computacional que permita la determinación electromagnética completa "Full-Wave"del problema planteado. Una vez desarrollada, se emplearán los resultados derivados de la misma para analizar ciertos fenómenos que se producen en este tipo de sistemas y que nos aportará un conocimiento profundo sobre los mismos con vista a concebir estrategias de diseño que permitan optimizar su funcionamiento.
Resumo:
Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.
Resumo:
Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.