70 resultados para Tecnología del Color


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis doctoral busca estudiar el espacio desde la premisa de que el espacio es, fundamentalmente, lo intermedio. El entre, lo que hay entre las cosas mismas y que les da, precisamente, su definición como cosas en un constante proceso de delimitación. Este entre, lo que hay entre las cosas, no es sin embargo un resto que queda, sino bien al contrario el principio activo que hace que las cosas, desde lo que hay alrededor, se configuren en su ser sensible y puedan percibirse. El entre, lo intermedio, no es así una línea, un corte puro, sino un intervalo, un espacio en sí mismo, un ámbito en que se desarrolla un proceso. Es por tanto un espacio de formación, en el que las cosas aún no son y ya están siendo, un intervalo ambiguo pleno de virtualidades, unas desplegadas otras que permanecen en espera, siempre en movimiento. Es la hipótesis principal de esta tesis que en el llamado Movimiento Moderno en la arquitectura del siglo veinte esta condición ambigua del límite se pone de manifiesto como la raíz articuladora de los cambios espaciales y formales que definen su ser y su estética. Para desarrollar esta hipótesis, se parte de una doble premisa: por una parte, como un entre que es en sí misma, la arquitectura se encuentra delimitada por las disciplinas artísticas contemporáneas, especialmente pintura y escultura y a la vez las delimita. Por tanto, se explorarán una serie de momentos claves en las vanguardias de comienzos del siglo veinte en paralelo a una serie de arquitecturas contemporáneas para estudiar esta doble dialéctica entre límites. Por otra parte, y entendiendo que lo propio de la arquitectura es el espacio, se estudiarán en profundidad las concepciones espaciales que en la física y la estética del finales del siglo diecinueve y principios del veinte se desarrollan, para comprender cómo estas nuevas concepciones, centradas en las ideas de relatividad y de espacio-tiempo como magnitudes interlimitadas, determinan a su vez las concepciones espaciales que se desarrollan simultáneamente en las artes plásticas y en la arquitectura. La tríada espacio/tiempo/luz regirá este recorrido, en un doble camino: a través de la física y la teoría del arte, y a través de la arquitectura y las artes plásticas. Se trata por tanto de incardinar la arquitectura en su contexto artístico y científico, y comprobar cómo la comprensión del espacio como un entre, como un intervalo del límite y no como un absoluto trascendente, se generaliza en dichos ámbitos en una exploración paralela que condiciona los resultados en todos ellos y que define, por tanto, la arquitectura de la modernidad como una arquitectura del entre. El encuadre enmarca como motivo principal el Movimiento Moderno a través de la figura de Le Corbusier. Se muestra el modo en que los recursos y mecanismos empleados provocan el encuentro del espacio indecible a través de la polifonía de las artes. Desde el espaciamiento del límite, su borradura, su ambigüedad, producidos mediante el entrelazamiento de los recursos artísticos, la continuidad de lo lineal, el encabalgamiento, el maridaje, la ambivalencia, la relatividad del color y la luz, el intersticio. Ello se analiza a través de la obra de le Corbusier, destacando la dialéctica entre Le Cheminée y Nature morte aux nombreux objets; Ma maison y el pabellón del Zurichhorn; Unité y L’espace indicible. Aclaradas las premisas fundamentales y las consecuencias inmediatas para la arquitectura del Movimiento Moderno, la cuarta parte y final de la tesis, mucho más breve que las anteriores, expone una primera aproximación a las consecuencias que todo esto ha tenido en un momento liminal también: el comienzo de la postmodernidad. En realidad se trata de una apertura a lo que ha de venir, pues establecida la operatividad de la hipóteisi inicial, se trata aquí solamente de abrir el camino a una interpretación que en realidad escapa del alcance de esta tesis. Así se deja apuntado cómo, a través de la obra de tres arquitectos, teóricos y artistas trabajando en los años setenta y comienzos de los ochenta del pasado siglo, una comprensión más clara de la revolución moderna precipitada por esta nueva comprensión del espacio como límite-entre queda patente. Chamberworks de Daniel Libeskind, Wexner Center for the Visual Arts de Peter Eisenman y Manhattan Transcripts de Bernard Tschumi servirían de privilegiados ejemplo. Como queda patente que las consecuencias de todo ello aún las estamos sintiendo en nuestra contemporaneidad. ABSTRACT This thesis aims to study the space from the premise that space is mainly the in-between. The in-between, what is in-between the things themselves and gives them precisely its definition as things in a constant process of delimitation. This in-between, what is in between things, is not a remnant that remains, but on the contrary it is the active ingredient that produces things from what is around, that configures them in a sensitive to be perceived. The in-between, the intermediate, is not a line, a pure cut, but an interval, a space in itself, an area in which a process is developed. It is therefore a space in development, where things are still not and already been, delimiting an ambiguous range full of potentialities, some present and others that remain only as virtualities. It is the main hypothesis of this thesis that in the so-called Modern Movement in the architecture of the twentieth century this ambiguous boundary condition is revealed as the result of the articulatation of spatial and formal changes. To develop this hypothesis, I posit this double premise: On the one hand, as an in-between which is in itself, architecture is defined by contemporary artistic disciplines, especially painting and sculpture and simultaneously defines them. Therefore, a number of key moments in the avantgarde of the early twentieth century in parallel with a number of contemporary architecture to study this double dialectic between boundaries will be explored. On the other hand, and considering that the “essence” of the architecture is space, I will study in depth the spatial concepts in physics and aesthetics of late-nineteenth century and early twentieth century to understand how these new concepts centered on the ideas of relativity and space-time as interlimited magnitudes in turn determine the spatial conceptions that take place simultaneously in the visual arts and architecture. The space / time / light triad governs this journey in a double way: through physics and theory of art, and through architecture and the arts. The aim is to anchor architecture in its artistic and scientific context, and to see how the understanding of space as an in-between interval and not as an absolute transcendent determines the results in all of them, defining, therefore, the architecture of modernity as an architecture of the in-between. The frame of the study is centered in the modern movement through the figure of Le Corbusier and how rthe different resources and mechanisms employed provoke an unspeakable space of encounter through the polyphony of the arts. From the spacing of the limit, its erasure, its ambiguity, produced by the intertwining of artistic resources to continuity of the linear, the marriage, the ambivalence, the relativity of color and light, the gap. All this is analyzed through the work of Le Corbusier, highlighting the dialectic between Le Cheminée and Nature morte aux nombreux objets, Ma maison and Zürichhorn pavilion, Unité and L’espace indicible. Once the basic premises and immediate consequences for the architecture of the Modern Movement are set, the fourth and final part of the thesis aims to explore the impact that all this has had in another liminal time: the beginning of postmodernism. Of course, this part is shorter, in fact it is more a prospective survey and an opening of possibilities than a truly articulated body of theory, since the conceptual core of this thesis has been developed in the central part. Hence, through the work of three architects, theorists and artists working in the seventies and early eighties of last century, a clearer understanding of the modern revolution precipitated by this new understanding of space as a boundary- between is proposed. Chamberworks by Daniel Libeskind, Wexner Center for the Visual Arts by Peter Eisenman and Manhattan Transcripts by Bernard Tschumi will exemplify this approach. The consequences of all this are still haunting our contemporaneity.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Análisis del color de bebidas formuladas con leche y frutas mediante análisis de imagen y estudio de la aceptación del color por los consumidores

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta Tesis se cuantifica la influencia de los productos hidrofugantes en la superficie de la cerámica, en base a la variación cromática que producen. Se definen parámetros metodológicos previos para la medición de la variación cromática: obtención de imágenes digitales en formato JPG, utilización del espacio de color RGB y medición del color a través de los histogramas de imagen. Se realiza una clasificación de la cerámica porosa utilizada en cerramientos cara vista, en base a su fabricación (manual, prensada, extrusionada y klinker) y de los productos hidrofugantes, en base a su composición química (siliconatos, silanos, siloxanos oligoméricos y poliméricos, resina fluorada y silanos/siloxanos). Los materiales utilizados (cerámica y e hidrofugantes) junto con los parámetros metodológicos conforman un plan de ensayos experimental en el que se realizan: Ensayos previos: se caracteriza la cerámica obteniendo su coeficiente de absorción y su porosidad abierta (normas UNE 67.027-84 y UNE-EN 772-4:1999). Se realiza el ensayo de succión (basado en la norma UNE-EN 772-11:2001/A1:2006) en el que se obtienen los parámetros de tasa de absorción y nivel de agua superficial que garantizan que la cerámica está correctamente hidrofugada. Todos los parámetros obtenidos se relacionarán con la variación de color de la cerámica al aplicarle los productos hidrofugantes, para analizar su grado de influencia. Ensayo colorimétrico: se propone una metodología nueva de ensayo basada en la medición digital del color de superficies de materiales inorgánicos porosos y sus posibles cambios cromáticos, mediante los histogramas de imagen. Se usa el espacio de color RGB en el que cada color aparece descompuesto en función de sus tres componentes espectrales primarias de rojo, verde y azul. Se compara la variación cromática que producen los hidrofugantes en las probetas comparándose con la probeta sin tratar. Previamente al ensayo colorimétrico se determinan y ajustan los parámetros del ensayo: número óptimo de fotografías necesarias para que los datos sean fiables, se comprueba si la cámara digital para la obtención de imágenes es fiable, se calibra dicha cámara fotográfica para ver cuál es la desviación respecto a los colores de referencia y se obtiene la variación de valores RGB que percibe el ojo humano. Se obtiene un modelo matemático que permite predecir el color final de la cerámica tratada en función del color inicial de la cerámica sin hidrofugar. Esta Tesis establece una tabla de predicción y posible reproducción del color, además de una recomendación de los productos a utilizar en la cerámica según su color. Se realiza un estudio de microscopia electrónica de barrido para comprobar la alteración producida por los productos hidrofugantes en la superficie de la cerámica y observar la su influencia, además de analizar la penetrabilidad de cada producto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta revista mexicana especializada en construcción y tecnología del hormigón armado publica el proyecto ?Museo de la Memoria de Andalucía? de Alberto Campo Baeza. Este proyecto utiliza el hormigón como material capaz de resolver cada uno de los distintos requerimientos del proyecto, logrando una gran austeridad, coherencia y unidad en el mismo. Se analiza los distintos usos que se hacen del material para lograr necesidades espaciales distintas. Las rampas helicoidales de forma elíptica necesitaron de una importante investigación que supuso un importante avance en las posibilidades del hormigón.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta Tesis se cuantifica la variación cromática que producen los barnices en el color de los diferentes tipos de maderas de construcción, obteniendo un modelo matemático de predicción de color de la madera. Se analizan las prestaciones de dieciséis barnices, supuestamente incoloros, aplicados sobre veinte tipos de maderas, angiospermas y gimnospermas, de distintas densidades y latitudes. Ambos materiales son de uso frecuente en el ámbito de la construcción y de fácil localización en las tiendas y almacenes de ambos sectores. Se utilizan técnicas de descomposición cromática, mediante el empleo de microscopio óptico de reflexión, para poder obtener un abanico gráfico de histogramas con valores numéricos de luminosidad y composición cromática, y de esta forma comprobar que los supuestos barnices que se venden como incoloros, no son totalmente incoloros sino que muestran tendencias a virar hacia alguno de los colores básicos. En el proceso experimental de la Tesis, se aplican 16 barnices sobre 20 tipos de maderas, obteniéndose los histogramas de las campañas de fotografías realizadas con cinco años de diferencia, obteniéndose no solo la variación de color que producen los barnices sobre el original de la madera, sino además la influencia de un envejecimiento a los cinco años. La Tesis relaciona el tipo de barniz idóneo para cada tipo de madera, de modo que produzca la menor variación cromática. La Tesis además obtiene un modelo matemático que permite predecir el color final de la madera tratada en función del color inicial de la madera sin barnizar. Se propone en esta Tesis una recomendación de los productos a utilizar en cada uno de los tipos de madera en base a su color inicial. This Thesis quantifies the chromatic variation caused by varnishes in the colour of different types of timbers, obtaining a mathematical model for predicting the timber’s colour. The performance of sixteen varnishes, supposedly colourless, is analysed, applied on twenty types of timber, angiosperms and gymnosperms, of different densities and latitudes. Both materials are of frequent use in the construction field and easily located in the stores and warehouses of both sectors. Chromatic decomposition techniques are used, through the utilization of a reflection optical microscope, in order to obtain a graphic range of histograms with numerical values of luminosity and chromatic composition, and this way confirm that the alleged varnishes sold as colourless are not completely colourless but are prone to shift towards one of the basic colours. During the Thesis’ experimental procedure 16 varnishes are applied on 20 types of timber, obtaining the colour histograms of the photography campaigns carried out with a five years difference, resulting in not only the colour variation caused by the varnishes on the original timber, but also the influence of its ageing five years later. The Thesis links the right type of varnish for each kind of timber, so that as little chromatic variation as possible occurs. The Thesis obtains as well a mathematical model, which makes it possible to predict the final colour of the treated timber depending on the original colour of the timber with no varnish. This Thesis proposes a recommendation of the products to use on each type of timber on the basis of its original colour.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We present two approaches to cluster dialogue-based information obtained by the speech understanding module and the dialogue manager of a spoken dialogue system. The purpose is to estimate a language model related to each cluster, and use them to dynamically modify the model of the speech recognizer at each dialogue turn. In the first approach we build the cluster tree using local decisions based on a Maximum Normalized Mutual Information criterion. In the second one we take global decisions, based on the optimization of the global perplexity of the combination of the cluster-related LMs. Our experiments show a relative reduction of the word error rate of 15.17%, which helps to improve the performance of the understanding and the dialogue manager modules.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper proposes an architecture, based on statistical machine translation, for developing the text normalization module of a text to speech conversion system. The main target is to generate a language independent text normalization module, based on data and flexible enough to deal with all situa-tions presented in this task. The proposed architecture is composed by three main modules: a tokenizer module for splitting the text input into a token graph (tokenization), a phrase-based translation module (token translation) and a post-processing module for removing some tokens. This paper presents initial exper-iments for numbers and abbreviations. The very good results obtained validate the proposed architecture.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we describe new results and improvements to a lan-guage identification (LID) system based on PPRLM previously introduced in [1] and [2]. In this case, we use as parallel phone recognizers the ones provided by the Brno University of Technology for Czech, Hungarian, and Russian lan-guages, and instead of using traditional n-gram language models we use a lan-guage model that is created using a ranking with the most frequent and discrim-inative n-grams. In this language model approach, the distance between the ranking for the input sentence and the ranking for each language is computed, based on the difference in relative positions for each n-gram. This approach is able to model reliably longer span information than in traditional language models obtaining more reliable estimations. We also describe the modifications that we have being introducing along the time to the original ranking technique, e.g., different discriminative formulas to establish the ranking, variations of the template size, the suppression of repeated consecutive phones, and a new clus-tering technique for the ranking scores. Results show that this technique pro-vides a 12.9% relative improvement over PPRLM. Finally, we also describe re-sults where the traditional PPRLM and our ranking technique are combined.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper describes a low complexity strategy for detecting and recognizing text signs automatically. Traditional approaches use large image algorithms for detecting the text sign, followed by the application of an Optical Character Recognition (OCR) algorithm in the previously identified areas. This paper proposes a new architecture that applies the OCR to a whole lightly treated image and then carries out the text detection process of the OCR output. The strategy presented in this paper significantly reduces the processing time required for text localization in an image, while guaranteeing a high recognition rate. This strategy will facilitate the incorporation of video processing-based applications into the automatic detection of text sign similar to that of a smartphone. These applications will increase the autonomy of visually impaired people in their daily life.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper proposes a methodology for developing a speech into sign language translation system considering a user-centered strategy. This method-ology consists of four main steps: analysis of technical and user requirements, data collection, technology adaptation to the new domain, and finally, evalua-tion of the system. The two most demanding tasks are the sign generation and the translation rules generation. Many other aspects can be updated automatical-ly from a parallel corpus that includes sentences (in Spanish and LSE: Lengua de Signos Española) related to the application domain. In this paper, we explain how to apply this methodology in order to develop two translation systems in two specific domains: bus transport information and hotel reception.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo principal del presente trabajo es estudiar y explotar estructuras que presentan un gas bidimensional de electrones (2DEG) basadas en compuestos nitruros con alto contenido de indio. Existen muchas preguntas abiertas, relacionadas con el nitruro de indio y sus aleaciones, algunas de las cuales se han abordado en este estudio. En particular, se han investigado temas relacionados con el análisis y la tecnología del material, tanto para el InN y heteroestructuras de InAl(Ga)N/GaN como para sus aplicaciones a dispositivos avanzados. Después de un análisis de la dependencia de las propiedades del InN con respecto a tratamientos de procesado de dispositivos (plasma y térmicos), el problema relacionado con la formación de un contacto rectificador es considerado. Concretamente, su dificultad es debida a la presencia de acumulación de electrones superficiales en la forma de un gas bidimensional de electrones, debido al pinning del nivel de Fermi. El uso de métodos electroquímicos, comparados con técnicas propias de la microelectrónica, ha ayudado para la realización de esta tarea. En particular, se ha conseguido lamodulación de la acumulación de electrones con éxito. En heteroestructuras como InAl(Ga)N/GaN, el gas bidimensional está presente en la intercara entre GaN y InAl(Ga)N, aunque no haya polarización externa (estructuras modo on). La tecnología relacionada con la fabricación de transistores de alta movilidad en modo off (E-mode) es investigada. Se utiliza un método de ataque húmedo mediante una solución de contenido alcalino, estudiando las modificaciones estructurales que sufre la barrera. En este sentido, la necesidad de un control preciso sobre el material atacado es fundamental para obtener una estructura recessed para aplicaciones a transistores, con densidad de defectos e inhomogeneidad mínimos. La dependencia de la velocidad de ataque de las propiedades de las muestras antes del tratamiento es observada y comentada. Se presentan también investigaciones relacionadas con las propiedades básicas del InN. Gracias al uso de una puerta a través de un electrolito, el desplazamiento de los picos obtenidos por espectroscopia Raman es correlacionado con una variación de la densidad de electrones superficiales. En lo que concierne la aplicación a dispositivos, debido al estado de la tecnología actual y a la calidad del material InN, todavía no apto para dispositivos, la tesis se enfoca a la aplicación de heteroestructuras de InAl(Ga)N/GaN. Gracias a las ventajas de una barrera muy fina, comparada con la tecnología de AlGaN/GaN, el uso de esta estructura es adecuado para aplicaciones que requieren una elevada sensibilidad, estando el canal 2DEG más cerca de la superficie. De hecho, la sensibilidad obtenida en sensores de pH es comparable al estado del arte en términos de variaciones de potencial superficial, y, debido al poco espesor de la barrera, la variación de la corriente con el pH puede ser medida sin necesidad de un electrodo de referencia externo. Además, estructuras fotoconductivas basadas en un gas bidimensional presentan alta ganancia debida al elevado campo eléctrico en la intercara, que induce una elevada fuerza de separación entre hueco y electrón generados por absorción de luz. El uso de metalizaciones de tipo Schottky (fotodiodos Schottky y metal-semiconductormetal) reduce la corriente de oscuridad, en comparación con los fotoconductores. Además, la barrera delgada aumenta la eficiencia de extracción de los portadores. En consecuencia, se obtiene ganancia en todos los dispositivos analizados basados en heteroestructuras de InAl(Ga)N/GaN. Aunque presentando fotoconductividad persistente (PPC), los dispositivos resultan más rápidos con respeto a los valores que se dan en la literatura acerca de PPC en sistemas fotoconductivos. ABSTRACT The main objective of the present work is to study and exploit the two-dimensionalelectron- gas (2DEG) structures based on In-related nitride compounds. Many open questions are analyzed. In particular, technology and material-related topics are the focus of interest regarding both InNmaterial and InAl(Ga)N/GaNheterostructures (HSs) as well as their application to advanced devices. After the analysis of the dependence of InN properties on processing treatments (plasma-based and thermal), the problemof electrical blocking behaviour is taken into consideration. In particular its difficulty is due to the presence of a surface electron accumulation (SEA) in the form of a 2DEG, due to Fermi level pinning. The use of electrochemical methods, compared to standard microelectronic techniques, helped in the successful realization of this task. In particular, reversible modulation of SEA is accomplished. In heterostructures such as InAl(Ga)N/GaN, the 2DEGis present at the interface between GaN and InAl(Ga)N even without an external bias (normally-on structures). The technology related to the fabrication of normally off (E-mode) high-electron-mobility transistors (HEMTs) is investigated in heterostructures. An alkali-based wet-etching method is analysed, standing out the structural modifications the barrier underwent. The need of a precise control of the etched material is crucial, in this sense, to obtain a recessed structure for HEMT application with the lowest defect density and inhomogeneity. The dependence of the etch rate on the as-grown properties is observed and commented. Fundamental investigation related to InNis presented, related to the physics of this degeneratematerial. With the help of electrolyte gating (EG), the shift in Raman peaks is correlated to a variation in surface eletron density. As far as the application to device is concerned, due to the actual state of the technology and material quality of InN, not suitable for working devices yet, the focus is directed to the applications of InAl(Ga)N/GaN HSs. Due to the advantages of a very thin barrier layer, compared to standard AlGaN/GaN technology, the use of this structure is suitable for high sensitivity applications being the 2DEG channel closer to the surface. In fact, pH sensitivity obtained is comparable to the state-of-the-art in terms of surface potential variations, and, due to the ultrathin barrier, the current variation with pH can be recorded with no need of the external reference electrode. Moreover, 2DEG photoconductive structures present a high photoconductive gain duemostly to the high electric field at the interface,and hence a high separation strength of photogenerated electron and hole. The use of Schottky metallizations (Schottky photodiode and metal-semiconductor-metal) reduce the dark current, compared to photoconduction, and the thin barrier helps to increase the extraction efficiency. Gain is obtained in all the device structures investigated. The devices, even if they present persistent photoconductivity (PPC), resulted faster than the standard PPC related decay values.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta comunicación pretende mostrar cómo ?el color? es un mecanismo de manipulación de la percepción espacio temporal que, aunque presente en otras artes, merece especial atención por su utilización de forma análoga en la arquitectura y en el cine como herramienta capaz de ?modelar? el espacio y alterar el tiempo. Para ilustrar este análisis, cada uno de los conceptos se aborda a través de dos recurrentes y conocidos ejemplos: un edificio, La Facultad de arquitectura de Oporto (1983-1996) del arquitecto Alvaro Siza (1933) y una película, Apocalypse Now Redux (versión ampliada 2001) del director y guionista de cine Francis Ford Coppola (1933). Aunque podrían mostrase las mismas estrategias en multitud de obras de arquitectura o de cine, se ha preferido concentrar la atención únicamente en estos dos casos, para poder llevar dicho análisis en paralelo a ambas disciplinas y facilitar así la comprensión de sus analogías.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo se analiza un nuevo tipo de dispositivo óptico que, basándose en conceptos análogos a los ya empleados en la tecnología del láser, ofrece un amplio campo de posibilidades de aplicación. Su objetivo es puramente de revisión del estado actual del tema, ofreciéndose los avances más significativos conseguidos hasta la fecha.