940 resultados para Puntos de intensidad
Resumo:
En una línea experimental de manipulación de fruta, diseñada e instalada en el Departamento de Ingeniería Rural de la Universidad Politécnica de Madrid, fue estudiado el diseño correcto de la estructura de las cintas transportadoras y la regulación y eficacia de elementos deceleradores (cepillo y cortina), con el objetivo de reducir el daño infringido a la fruta, utilizando dos frutos electrónicos IS 100 (8.8 cm Ø y 6.2 cm Ø). Los resultados mostraron que las intensidades de impacto registradas por los frutos electrónicos en los puntos de transferencia pueden ser reducidas (hasta un 53%) utilizando elementos deceleradores bien regulados. El tamaño de la fruta a manipular y el diseño del punto de transferencia deben ser analizados para llevar a cabo una correcta regulación del elemento decelerador. Por otro lado, la ubicación de rodillos estructurales bajo cintas transportadoras en los puntos de transferencia debe ser evitada con el fin de reducir la intensidad del impacto recibido por la fruta.
Resumo:
Una de las principales causas del ruido en nuestras ciudades es el tráfico rodado. El ruido generado por los vehículos no es sólo debido al motor, sino que existen diversas fuentes de ruido en los mismos, entre las que se puede destacar el ruido de rodadura. Para localizar las causas del ruido e identificar las principales fuentes del mismo se han utilizado en diversos estudios las técnicas de coherencia y las técnicas basadas en arrays. Sin embargo, en la bibliografía existente, no es habitual encontrar el uso de estas técnicas en el sector automovilístico. En esta tesis se parte de la premisa de la posibilidad de usar estas técnicas de medida en coches, para demostrar a la largo de la misma su factibilidad y su bondad para evaluar las fuentes de ruido en dos condiciones distintas: cuando el coche está parado y cuando está en movimiento. Como técnica de coherencia se elige la de Intensidad Selectiva, utilizándose la misma para evaluar la coherencia existente entre el ruido que llega a los oídos del conductor y la intensidad radiada por distintos puntos del motor. Para la localización de fuentes de ruido, las técnicas basadas en array son las que mejores resultados ofrecen. Statistically Optimized Near-field Acoustical Holography (SONAH) es la técnica elegida para la localización y caracterización de las fuentes de ruido en el motor a baja frecuencia. En cambio, Beamforming es la técnica seleccionada para el caso de media-alta frecuencia y para la evaluación de las fuentes de ruido cuando el coche se encuentra en movimiento. Las técnicas propuestas no sólo pueden utilizarse en medidas reales, sino que además proporcionan abundante información y frecen una gran versatilidad a la hora de caracterizar fuentes de ruido. ABSTRACT One of the most important noise causes in our cities is the traffic. The noise generated by the vehicles is not only due to the engine, but there are some other noise sources. Among them the tyre/road noise can be highlighted. Coherence and array based techniques have been used in some research to locate the noise causes and identify the main noise sources. Nevertheless, it is not usual in the literature to find the application of this kind of techniques in the car sector. This Thesis starts taking into account the possibility of using this kind of measurement techniques in cars, to demonstrate their feasability and their quality to evaluate the noise sources under two different conditions: when the car is stopped and when it is in movement. Selective Intensity was chosen as coherence technique, evaluating the coherence between the noise in the driver’s ears and the intensity radiated in different points of the engine. Array based techniques carry out the best results to noise source location. Statistically Optimized Near-field Acoustical Holography (SONAH) is the measurement technique chosen for noise source location and characterization in the engine at low frequency. On the other hand, Beamforming is the technique chosen in the case of medium-high frequency and to characterize the noise sources when the car is in movement. The proposed techniques not only can be used in actual measurements, but also provide a lot of information and are very versatile to noise source characterization.
Resumo:
Introducción: Niveles altos de Homocisteína (Hcy) se han identificado como un factor de riesgo cardiovascular. En relación con la práctica de ejercicio físico, los resultados son contradictorios. Objetivos: El objetivo del presente estudio fue determinar la influencia de ejercicios agudos máximo y submáximo sobre las concentraciones de homocisteína total (tHcy) y otros parámetros sanguíneos relacionados. Material y métodos: Diez varones (23,5 ± 1,8 años) físicamente activos realizaron una prueba incremental máxima y otra submáxima a una intensidad del 65% del consumo máximo de oxígeno (VO2max) en tapiz rodante. Se analizaron antes y después las concentraciones de tHcy, folato, vitamina B12 y creatinina séricas. Resultados: Las concentraciones de tHcy séricas aumentaron significativamente tras las pruebas de intensidad máxima (p < 0,05) y submáxima (p < 0,01). El folato y la vitamina B12 también aumentaron significativamente tras ambas pruebas (p < 0,05). Las concentraciones de creatinina aumentaron significativamente únicamente en la prueba máxima (p < 0,001). Se encontró una relación inversa entre los niveles de folato y de tHcy en todos los puntos (p < 0,05). Conclusión: Se observaron niveles altos de homocisteína después del ejercicio agudo tanto máximo como submáximo.
Resumo:
Se emplearon dos frutos electrónicos simulados IS-100 de diferente tamaño(grande: 300.6 gr y 8.8 cm de diámetro; pequeña: 114.7 gr y 6.2 cm de diámetro) para evaluar la calidad de las operaciones de post-recolección. Cotí la ayuda de los frutos electrónicos IS-100 es posible detectar en qué lugar y con qué intensidad se produce un impacto, asi como el tipo de material contra el que estos frutos están impactando. Se estudiaron cuatro líneas de manipulación en varias cooperativas (dos de fruta de hueso y dos de cítricos). En la mayoría de puntos de transferencia se registran impactos con intensidades superiores a 50 g's. Los impactos registrados en las líneas de manipulación de cítricos son mayores que los correspondientes a las líneas de fruta de hueso. Para estudiar el efecto de las líneas sobre diferentes variedades de las especies manipuladas en ellas, se diseñó un ensayo de interacción fruta-línea de manipulación, a través del cual se comparan lotes de fruta manipulados y sin manipular, cuantificándose los daños atribuibles a la recolección y a la manipulación. En todos los casos estudiados, más del 50% de los frutos ya manipulados presentan algún tipo de daño. La observación de estos daños al cabo de 2 días, en el caso de La fruto de hueso, y 10 días, en el caso de los cítricos, revela que estos daños evolucionan, siendo mayores y más patentes en la segunda fecha de observación.
Resumo:
La escara miocárdica constituye el sustrato arritmogénico de los pacientes con TV isquémica. Los mapas de intensidad de señal (IS) obtenidos a partir de mágenes de realce tardío (RT) pueden ser una alternativa no invasiva a los mapas electroanatómicos para estudiar la arquitectura de la escara. El objetivo de este trabajo es describir las características de las escaras observadas en los pacientes (p) con TV isquémicas.
Resumo:
Este trabajo es de interés para territorios en países en vías de desarrollo que tengan información escasa o limitada sobre la cual planificar Puntos de Acceso a Servicios (PAS). Está pensado para territorios que actualmente no cuenten con ningún o con escasos PAS y que estén interesados en aplicar esta estrategia para proveer de servicios a los ciudadanos de su territorio. Aquí se dan claves para tener una respuesta con base técnica para decidir cuántos PAS poner en el territorio y dónde ubicarlos. Ante la pregunta de ¿cómo realizar una distribución de puntos de acceso a servicios de gobierno electrónico sobre un territorio determinado?, este trabajo toma en cuenta tres variables: tamaño de la población, distancia entre poblaciones y costo de implantación de los puntos de acceso. Este proceso se basa en la teoría de localización de instalaciones y usa algoritmos genéticos como herramienta técnica. Se ha hecho la aplicación de esta metodología en dos contextos: el Municipio de Santa Elena (Ecuador) y en la provincia de Asturias (España). La selección de estos dos territorios se ha planteado para resaltar las diferencias de esfuerzos en la aplicación de una misma metodología en ambos contextos.
Resumo:
El presente ensayo pretende aportar una reflexión sobre el amplio territorio de la imagen en la arquitectura hoy. Para ello un buen ejemplo es el proyecto del Rascacielos de la Friedrichstrasse, realizado por Mies van der Rohe en el periodo de entre guerras de 1921/22. Muchas son las razones que han hecho de esta obra la elegida, pero una más actual sobresale del resto: que de los cientos de ensayos vertidos sobre esta obra solo se haya comentado -salvo alguna excepción- las características objetuales de lo directamente descrito por las vistas -como si fuera un fiel reflejo de la realidad- sin entrar a analizar la verdadera naturaleza física y simbólica de lo representado como expresión subjetiva –espacial- de una arquitectura. Si su importancia como punto de inflexión en el desarrollo inicial de una obra plenamente moderna es un motivo más que suficiente para dedicarle un estudio pormenorizado, ya que puede resultar crucial para comprender los inicios del autor en el Movimiento Moderno. Su presencia como un reducido conjunto de cuatro vistas perspectivas, mezcla de una fotografía del lugar y de un dibujo realizado sobre la misma, acarrea en nuestra opinión significaciones igual de importantes para la comprensión de esta arquitectura que todas aquellas ideas descritas sobre las mismas. Creadas en una época seminal, cuando el lenguaje de la fotografía y el cine están en pleno desarrollo, se puede afirmar que el conjunto de representaciones del Rascacielos de la Friedrichstrasse forman parte como referente histórico de una de las primeras arquitecturas virtuales que pertenecen de pleno derecho al Movimiento Moderno. Paradigma de las más absoluta actualidad, por encontrarse en esa frontera de lo nunca realizado, pero sí asumible espacialmente como realidad fotográfica, las imágenes del rascacielos se pueden considerar así como una de las primeras reflexiones sobre la naturaleza virtual del proyecto arquitectónico postindustrial. No siendo novedoso que la descripción fotográfica de una obra absorba y comunique por sí misma las múltiples propiedades que esta posee, como tampoco lo es que la mayoría de arquitecturas se den por conocidas actualmente a través de los medios. Sorprende que hasta hoy no se hayan analizado con la misma intensidad las múltiples razones que dieron lugar a unas imágenes cuya poética da forma por igual a la arquitectura que representan. Si la intención es reflexionar así sobre este hecho contemporáneo mediante un ejemplo paradigmático, certificado por la historia, nos veremos obligados a emplear una metodología acorde a la condición dual que toda imagen mediatizada produce en su lectura como mezcla fluctuante entre lo que se interpreta de manera autónoma a través de lo representado y de los significados que la imagen adquiere a lo largo de su recorrido como referente histórico. Esta ambivalencia interpretativa llevará a organizar este ensayo mediante dos bloques claramente diferenciados que, complementarios entre sí, siguen el orden de lectura que toda imagen de una arquitectura ofrece a través de los medios. Así, una primera parte, titulada La imagen de una arquitectura, analiza la interpretación que la historia y el autor han dado al rascacielos por medio de su uso en las diferentes exposiciones, revistas, tratados de estilos y monografías de las que ha formado parte. Este recorrido, que es el verdadero espacio donde estas arquitecturas residen, limitado -por una cuestión de poner orden- al estudio a los países que acogieron en vida al autor, servirá para establecer una primera narrativa que expone las diferentes posiciones que la crítica ha producido a lo largo del tiempo. La presencia del primer rascacielos junto al segundo, en la publicación que el arquitecto realiza de manera temprana en Frühlicht, obligará a incorporar esta segunda solución como una parte más del estudio. Cargada de las citas obligadas, de las diferentes personalidades que se han enfrentado a dichos proyectos, este primer análisis historiográfico establece un primer estado de la cuestión donde se revela una lectura ambivalente de los rascacielos. Si la interpretación directa de sus imágenes ha permitido profundizar en las características del vidrio y sus reflejos y en la desnudez de una estructura metálica como claros ejemplos de una expresión moderna y tecnológica de vidrio y el acero. Las particulares formas triangulares del primero y las formas sinuosas del segundo han dado lugar a una multitud de calificaciones, de ser ejemplo tanto de un Expresionismo como de un dadaísmo o constructivismo, que con el tiempo han ido creciendo hacia una admiración artística con una fuerte carga poética. Este lectura histórica, que remata con un breve periodo más actual donde se inicia el cuestionamiento de su carácter utópico y se recupera puntualmente su naturaleza como proyecto, servirá para plantear finalmente una serie de dudas que, sin respuesta aparente, exigen revisar la lectura de sus imágenes como parte de lo que realmente son: expresión de una nueva arquitectura que a partir de ese preciso momento entra de pleno derecho en el Movimiento Moderno. Por otro lado, la existencia en el discurso posterior del arquitecto de un proceso de formalizacion altamente valorado por su autor y la presencia de igual a igual de un lugar en las representaciones y planos de los rascacielos, que la historia parece haber obviado, servirán como razón más que suficiente para la revisión de unas relaciones iniciales con la vanguardia -todavía hoy poco definidas- así como para proponer la lectura renovada de dichas propuestas en altura por lo que también son: proyectos que responden a unas necesidades espaciales de un lugar y tiempo muy determinados. Esta segunda parte, denominada La arquitectura de una imagen, se plantea así más como una inmersión total en el mundo del proyecto que una simple descripción nominal del mismo. Conscientemente simétrica y opuesta a un primer bloque histórico, esta segunda parte -mucho más extensa y parte central de esta tesis- se concentra en el análisis de las imágenes como: aquel conjunto de eventos históricos que aplicados sobre la ciudad, el lugar, el rascacielos, y los procesos técnicos de la imagen dieron lugar a estas arquitecturas como razón de ser. Consecuentemente se tratará pues de bucear en las razones que, ocultas como proceso de formalización, llevaron a Mies a dar un paso más allá hacia a una nueva manera de hacer, ver y pensar su arquitectura, de expresar un espacio. La aproximación a estas imágenes radicará por tanto en resaltar al mismo tiempo la naturaleza de unas representaciones cuyas características fotográficas son el fiel reflejo de una época donde los nuevos medios visuales –cine y fotografía- empiezan a ser cuestionados por su excesiva utilización. La complejidad de unos hechos coincidentes en el tiempo obligará a dividir este estudio en un primer acercamiento general, a la respuesta dada por una mayoría de participantes al concurso, para así cotejar la importancia de una actitud proyectual y contextual común de Mies y sus compañeros. Mezcla de requerimientos y necesidades de la propia historia de la parcela, de las peculiaridades de un lugar y las exigencias programáticas del concurso; el siguiente paso consistirá en reconstruir el proceso de formalización del conjunto de dibujos que caracterizan ambos proyectos para así comprender los mecanismo que, suspendidos como traslaciones entre las diferentes representaciones, operan en la realización física de dichas imágenes y complementan como pensamiento la idea arquitectónica de los mismos. Con lo que se pretende ofrecer dos cosas: una interpretación que tenga en cuenta la novedosa naturaleza de la manera de pensar lo fotográfico en el arquitecto, así como la particular idiosincrasia del momento en que estas concurren. Dicho de otro modo, se realizará una aproximación de las vistas del primer rascacielos que tenga en cuenta la historia tecnológica y visual que rodea al evento y las características de una ejecución física todavía hoy sin aclarar del todo. El descubrimiento de una serie de incoherencias geométricas en las plantas, alzado y vistas del primer proyecto llevará a argumentar la presencia de un trampantojo que, nunca antes revelado, se entiende lleno de unas intenciones espaciales plenamente vanguardistas. Interpretación arquitectónica de las imágenes donde la presencia de una serie de elementos directamente ligados al lenguaje fotográfico y cinematográfico se traduce en una nueva lectura espacial plenamente dinámica llena de dislocación, ritmo y simultaneidad alejada de la idea de ver la forma como un elemento permanentemente fijo. Sugerencia que nos lleva directamente a la lectura del segundo proyecto de rascacielos como una clara continuación de lo imaginado en el primero. Para finalizar, tras una revisión biográfica -previa al proyecto- que desvela unas preocupaciones urbanas y un deseo de cambio anterior al concurso de la Friedrichstrasse, se comparan estas nuevas significaciones espaciales con una práctica de vanguardia que, coetánea a la convocatoria de 1921, demuestran unas investigaciones muy similares con unos mismos intereses cinematográficos. La lectura de las propuestas de tres artistas próximos en ese momento al arquitecto -como son Hans Richter, Moholy-Nagy y El Lissitzky- permiten demostrar unas preocupaciones muy similares a lo conseguido por Mies con los rascacielos que parecen haber servido de ejemplo y motivación mutua para el surgimiento de una nueva espacialidad -más fluida-. Esta lectura permitirá recuperar la importancia de estos dos proyectos como la expresión directa de una nueva manera de pensar y hacer su arquitectura que ya no tendrá vuelta atrás en la obra de Mies. A la vez que recuperar la potencialidad poética de unas vistas que, así definidas reiteradamente por la crítica, se revelan ahora como directas transmisoras de ese deseo de cambio arquitectónico evidenciado en los proyectos posteriores. Racionalización de una poética que al ir más allá de la forma directamente transcrita permite establecer una última reflexión general sobre como opera la imagen en la arquitectura, así como la pertinencia crítica de este proyecto para con el mundo virtual de hoy. En definitiva, más allá del poder evocador de estas representaciones, este será un estudio que pretende cuestionar las características que la imagen de la arquitectura puede proponer más allá de su literalidad por medio de la fascinante interacción que se produce entre la imagen y lo espacialmente imaginado. Encuentros, recursos e intereses de una respuesta plenamente arquitectónica que, además de dar luz a un cambio tan inclasificable como moderno, abre el camino a la interpretación de un proceso de formalizacion que, reiteradamente defendido por su autor justifican una intensidad poética dada por la historia y reafirman una preocupación artística a menudo desmentida por su autor. Dicho de otro modo, si profundizar en las razones arquitectónicas, históricas y técnicas que llevan a Mies a realizar sus rascacielos, por medio de su relación con la vanguardia y el cine, arrojan luz y explican el cambio que se está gestando en el arquitecto cara una nueva espacialidad fluida. Reflexionar sobre su naturaleza espacial -de estas imágenes ya icónicas- equivale a aportar una reflexión crítica sobre la naturaleza simbólica de la imagen de la arquitectura hoy. “Aunque el puesto clave que ocupa el Rascacielos de la Friedrichstrasse dentro de la historia de la arquitectura moderna nunca ha sido seriamente cuestionado, la opinion critica al respecto siempre ha estado dividida. Desde la publicacion de la monografia de Philip Johnson sobre Mies en 1947, el muro cortina como una piel transparente que reviste el esqueleto estructural has ido aclamado como un gran avance pionero. Otros puntos de vista sobre el edificio, subrayando su supuesta planta expresionista, lo han visto como un esfuerzo un poco menos aventurado. Asi calibrada, la propuesta de Mies para la Friedrichstrasse es radicalmente moderna en mas de un sentido enfatizado por Johnson.” 1 W.Tegethoff ABSTRACT This essay reflects on the broad territory of the image in today’s architecture. One good example is the Friedrichstrasse Skyscraper design by Mies van der Rohe in 1921/22, during the period between World Wars I and II. There are many reasons why this work has been chosen, but one of the most recent stands out above the rest: of the hundreds of essays written on this work, comments have been made only (with the odd exception) on the objectual characteristics of what has been directly described by the views (as if it were a genuine reflection of reality), without analysing the real physical and symbolic nature of the representation a subjective (spatial) expression of architecture. If its importance as a point of inflection in the initial development of a completely modern work is more than enough reason to make a detailed study, since it may be crucial for understanding the author’s beginnings in the Modern Movement. Its presence as a reduced set of four views, the combination of a photograph of the place and a drawing made of it, in our opinion, carry meanings that are as important for understanding this architecture as all the ideas described about them. Created during an early period, when the languages of photography and cinema were in full swing, it can be said that the perspectives of the Friedrichstrasse Skyscraper form a historical reference of one of the first virtual architectures that belong entirely to the Modern Movement. A paradigm of the most absolute modernity owing to the fact that it is on that frontier of the never-accomplished, but spatially assumable as photographic reality, the images of the skyscraper can be considered as one of the first reflections on the virtual nature of post-industrial architectural design. There is nothing new in the fact that the photographic description of work absorbs and communicates on its own the multiple properties it involves and there is nothing new in the fact that most architectures become known today through the media. It is surprising that no analysis has been made to date, with the same intensity, of the many reasons that led to a number of images whose poetry add form to the architecture they represent. If the intention is to reflect on this contemporary fact using a paradigmatic example certified by history, we will be forced to use a methodology that corresponds to the dual condition produced by the interpretation of all media images as a fluctuating combination of what is interpreted independently through the representation and meanings the image acquires as a historical reference. This ambivalent interpretation will lead this essay to be structured in two clearly different and complementary blocks that follow the reading order offered by any image of architecture in the media. Thus, a first part, titled The image of an architecture, analyses the interpretation history and the author have given to the skyscraper through its use in the various exhibitions, magazines, style agreements and monographs in which it has been included. This examination, which is the real space in which these architectures reside, is (to delimit and organise the study) restricted to countries in which the author lived during his lifetime and it will help establish a first narrative that considers the different interpretations made by critics over time. The presence of the first skyscraper next to the second one in the publication the architect makes early on in Frühlicht will require the second solution to be incorporated as another part of the study. Laden with necessary quotes by the various personalities who have examined said designs, this first historiographical analysis establishes an initial state of the question that reveals an ambivalent interpretation of skyscrapers. If the direct interpretation of the images has made it possible to closely examine the characteristics of the glass and its reflections and the nudity of a metal structure as clear examples of a modern and technological expression of glass and steel. The particular triangular shapes of the former and the sinuous shapes of the latter have generated many classifications that suggest it is an example of Expressionism, Dadaism or Constructivism, which have grown over time into artistic admiration laden with poetry. This historical reading, which concludes with a more recent short period that begins to question the utopian character and recovers its nature as a project, will finally consider a number of doubts that have no apparent answer and require a revision of the reading of the images as part of what they actually are: expression of a new architecture that becomes part of the Modern Movement as from that precise moment. In addition, the existence in the architect’s subsequent discourse of a formalisation process highly valued by the author and the equal presence of a place in the representations and plans of a skyscraper history seems to have forgotten, will stand as more than sufficient reason for a revision of initial relations with the avantgarde -not particularly well defined today- together with a renewed reading of said vertical proposals for what they also are: projects that respond to the special needs of a very specific place and time. This second part, titled The architecture of an image, is presented more as a total immersion in the project world than a mere nominal description of it. Deliberately symmetrical and opposite to a historic first bloc, this second part (much longer and central part of the thesis) it will focus on analysing images as: the set of historical events that affected the skyscraper, city, place and technical processes image to provide these architectures with their raison d’être. Consequently, the aim is to delve in the reasons which, hidden as a formalisation process, led Mies to move on to a new form of doing, seeing and thinking his architecture, of expressing a space. The approach to these images will therefore lie in highlighting the nature of a number of representations whose photographic features are the true reflection of a period in which the new visual media (cinema and photography) begin to be questioned due to excessive use. The complexity of facts that coincide in time will require this study to be divided into a first general approach, with a response given by most of the participants in the competition, to compare the importance of a common approach in terms of project and context of the response given by Mies and his colleagues. A combination of requirements and needs of the very history of the plot of land, the peculiarities of a place and the programmatic requirements of the competition; the next step will reconstruct the formalisation process of the set of drawings that characterise both to understand the mechanism which, suspended like translations between the different representations, operates in the realisation of said images and complements as thought their architectural idea. The aim is thus to offer two things: an interpretation that takes into account the new way in which the architect works with photography, together with the particular idiosyncrasy of the moment at which they occur. In other words, the approach will focus on the views of the first skyscraper, which takes into account the technological and visual history that surrounds the event and the characteristics of a physical execution that still remains unexplained in full. The subsequent discovery of a number of geometrical incoherences in the floor plans, elevations and views of the first project will lead to an argument for the presence of trompe l’oeil which, never before revealed, is seen as laden with completely avant-garde spatial intentions. Architectural interpretation of the images where the presence of a number of elements directly linked to the languages of photography and cinema is translated into a new spatial reading that is completely dynamic and full of dislocation, rhythm and simultaneity far-removed from the idea of seeing shape as a permanently fixed element. This suggestion takes us to directly to the second skyscraper design as a clear continuation of what he imagined in the first. To end, after a preliminary biographical revision (previous to the project) that reveals urban concerns and a desire for change before the Friedrichstrasse competition, a comparison is made of these new spatial meanings with avant-garde practice which, contemporary with the 1921 competition, show very similar investigations with the same cinematographic interest. The reading of the proposals of three artists close to the architect at that time -i.e. Hans Richter, Moholy-Nagy and El Lissitzky- reveals concerns that are very similar to what Mies achieved with the skyscrapers that seem to have been used as an example and mutual motivation for the creation of a new (more fluent) spatiality. This interpretation will make it possible to recover the importance of these two projects as the direct expression of a new way of thinking and doing his architecture that was to remain fixed in Mies’ work. This also gives rise to the possibility of recovering the poetic potential of views which, as defined repeatedly by the critics, now stand as the direct transmitters of the desire for architectural change shown in later projects. A rationalisation of poetry which, by going beyond the directly transcribed form, gives rise to the establishment of one general final reflection on how the image works in architecture, together with the critical relevance of this design for today’s virtual world. In short, beyond the evocative power of images this will be a study which questions the characteristics the image of architecture can propose beyond its literality through the fascinating interaction between the image and spatially imagined. Encounters, resources and interests of a completely architectural response that, besides sheds light to a change that is as non-classifiable as it is modern, shows the way to the interpretation of a formalisation process which, repeatedly defined by the author, justifies a poetic intensity and confirms an artistic concern often denied by the author. In other words, examining the architectural, historical and technical reasons that led Mies to create his skyscrapers, thanks to its relationship with the avant-garde and cinema, sheds light on and explains the change taking place in the architect with regard to a new fluent spatiality. Reflecting on the spatial nature -of these iconic images- is tantamount to a critical reflection on the symbolic nature of architecture today. “Although the key position of the Friedrichstrasse Office Building within the early history of modern architecture has never been seriously challenged, critical opinion on it has always been divided. Ever since the publication of Philip Johnson’s monograph on Mies in 1947, the curtain wall as a transparent skin sheathing the skeleton structure has frequently been hailed as a pioneering breakthrough. Other views of the building, stressing its supposedly Expressionist plan, have seen it as a somewhat less adventurous effort. In fact, the project has never been regarded in abroad context. Thus measured, Mies’s proposal fro Friedrichstrasse is radically modern in more than the one respect emphasized by Johnson.” 1 W.Tegethoff
Resumo:
Esta tesis estudia las similitudes y diferencias entre los flujos turbulentos de pared de tipo externo e interno, en régimen incompresible, y a números de Reynolds moderada¬mente altos. Para ello consideramos tanto simulaciones numéricas como experimentos de capas límites con gradiente de presiones nulo y de flujos de canal, ambos a números de Reynolds en el rango δ+ ~ 500 - 2000. Estos flujos de cortadura son objeto de numerosas investigaciones debido a la gran importancia que tienen tanto a nivel tecnológico como a nivel de física fundamental. No obstante, todavía existen muchos interrogantes sobre aspectos básicos tales como la universalidad de los perfiles medios y de fluctuación de las velocidades o de la presión, tanto en la zona cercana a la pared como en la zona logarítmica, el escalado y el efecto del número de Reynolds, o las diferencias entre los flujos internos y externos en la zona exterior. En éste estudio hemos utilizado simulaciones numéricas ya existentes de canales y capas límites a números de Reynolds δ+ ~ 2000 y δ+ ~ 700, respectivamente. Para poder comparar ambos flujos a igual número de Reynolds hemos realizado una nueva simulación directa de capa límite en el rango δ+ ~ 1000-2000. Los resultados de la misma son presentados y analizados en detalle. Los datos sin postprocesar y las estadísticas ya postprocesadas están públicamente disponibles en nuestro sitio web.162 El análisis de las estadísticas usando un único punto confirma la existencia de perfiles logarítmicos para las fluctuaciones de la velocidad transversal w'2+ y de la presión p'2+ en ambos tipos de flujos, pero no para la velocidad normal v'2+ o la velocidad longitudinal u'2+. Para aceptar o rechazar la existencia de un rango logarítmico en u'2+ se requieren números de Reynolds más altos que los considerados en éste trabajo. Una de las conse¬cuencias más importantes de poseer tales perfiles es que el valor máximo de la intensidad, que se alcanza cerca de la pared, depende explícitamente del número de Reynolds. Esto ha sido confirmado tras analizar un gran número de datos experimentales y numéricos, cor¬roborando que el máximo de u'2+, p/2+, y w'2+ aumenta proporcionalmente con el log(δ+). Por otro lado, éste máximo es más intenso en los flujos externos que en los internos. La máxima diferencia ocurre en torno a y/δ ~ 0.3-0.5, siendo esta altura prácticamente independiente del número de Reynolds considerado. Estas diferencias se originan como consecuencia del carácter intermitente de las capas límites, que es inexistente en los flujos internos. La estructura de las fluctuaciones de velocidad y de presión, junto con la de los esfuer¬zos de Reynolds, se han investigado por medio de correlaciones espaciales tridimensionales considerando dos puntos de medida. Hemos obtenido que el tamaño de las mismas es gen¬eralmente mayor en canales que en capas límites, especialmente en el caso de la correlación longitudinal Cuu en la dirección del flujo. Para esta correlación se demuestra que las es¬tructuras débilmente correladas presentan longitudes de hasta 0(75), en el caso de capas límites, y de hasta 0(185) en el caso de canales. Estas longitudes se obtienen respecti-vamente en la zona logarítmica y en la zona exterior. Las longitudes correspondientes en la dirección transversal son significativamente menores en ambos flujos, 0(5 — 25). La organización espacial de las correlaciones es compatible con la de una pareja de rollos casi paralelos con dimensiones que escalan en unidades exteriores. Esta organización se mantiene al menos hasta y ~ 0.65, altura a la cual las capas límites comienzan a organi¬zarse en rollos transversales. Este comportamiento es sin embargo más débil en canales, pudiéndose observar parcialmente a partir de y ~ 0.85. Para estudiar si estas estructuras están onduladas a lo largo de la dirección transver¬sal, hemos calculado las correlaciones condicionadas a eventos intensos de la velocidad transversal w'. Estas correlaciones revelan que la ondulación de la velocidad longitudinal aumenta conforme nos alejamos de la pared, sugiriendo que las estructuras están más alineadas en la zona cercana a la pared que en la zona lejana a ella. El por qué de esta ondulación se encuentra posiblemente en la configuración a lo largo de diagonales que presenta w'. Estas estructuras no sólo están onduladas, sino que también están inclinadas respecto a la pared con ángulos que dependen de la variable considerada, de la altura, y de el contorno de correlación seleccionado. Por encima de la zona tampón e independien¬temente del número de Reynolds y tipo de flujo, Cuu presenta una inclinación máxima de unos 10°, las correlaciones Cvv y Cm son esencialmente verticales, y Cww está inclinada a unos 35°. Summary This thesis studies the similitudes and differences between external and internal in¬compressible wall-bounded turbulent flows at moderately-high Reynolds numbers. We consider numerical and experimental zero-pressure-gradient boundary layers and chan¬nels in the range of δ+ ~ 500 — 2000. These shear flows are subjects of intensive research because of their technological importance and fundamental physical interest. However, there are still open questions regarding basic aspects such as the universality of the mean and fluctuating velocity and pressure profiles at the near-wall and logarithmic regions, their scaling and the effect of the Reynolds numbers, or the differences between internal and external flows at the outer layer, to name but a few. For this study, we made use of available direct numerical simulations of channel and boundary layers reaching δ+ ~ 2000 and δ+ ~ 700, respectively. To fill the gap in the Reynolds number, a new boundary layer simulation in the range δ+ ~ 1000-2000 is presented and discussed. The original raw data and the post-processed statistics are publicly available on our website.162 The analysis of the one-point statistic confirms the existence of logarithmic profiles for the spanwise w'2+ and pressure p'2+ fluctuations for both type of flows, but not for the wall-normal v'2+ or the streamwise u'2+ velocities. To accept or reject the existence of a logarithmic range in u'2+ requires higher Reynolds numbers than the ones considered in this work. An important consequence of having such profiles is that the maximum value of the intensities, reached near the wall, depends on the Reynolds number. This was confirmed after surveying a wide number of experimental and numerical datasets, corrob¬orating that the maximum of ul2+, p'2+, and w'2+ increases proportionally to log(δ+). On the other hand, that maximum is more intense in external flows than in internal ones, differing the most around y/δ ~ 0.3-0.5, and essentially independent of the Reynolds number. We discuss that those differences are originated as a consequence of the inter¬mittent character of boundary layers that is absent in internal flows. The structure of the velocity and pressure fluctuations, together with those of the Reynolds shear stress, were investigated using three-dimensional two-point spatial correlations. We find that the correlations extend over longer distances in channels than in boundary layers, especially in the case of the streamwise correlation Cuu in the flow direc-tion. For weakly correlated structures, the maximum streamwise length of Cuu is O(78) for boundary layers and O(188) for channels, attained at the logarithmic and outer regions respectively. The corresponding lengths for the transverse velocities and for the pressure are shorter, 0(8 — 28), and of the same order for both flows. The spatial organization of the velocity correlations is shown to be consistent with a pair of quasi-streamwise rollers that scales in outer units. That organization is observed until y ~ 0.68, from which boundary layers start to organize into spanwise rollers. This effect is weaker in channels, and it appears at y ~ 0.88. We present correlations conditioned to intense events of the transversal velocity, w', to study if these structures meander along the spanwise direction. The results indicate that the streamwise velocity streaks increase their meandering proportionally to the distance to the wall, suggesting that the structures are more aligned close to the wall than far from it. The reason behind this meandering is probably due to the characteristic organization along diagonals of w'. These structures not only meander along the spanwise direction, but they are also inclined to the wall at angles that depend on the distance from the wall, on the variable being considered, and on the correlation level used to define them. Above the buffer layer and independent of the Reynolds numbers and type of flow, the maximum inclination of Cuu is about 10°, Cvv and Cpp are roughly vertical, and Cww is inclined by 35°.
Resumo:
Segun Palau, I, 10766-10769 y Simón Díaz, V, 2194 el autor es Juan Carlos Amat
Resumo:
El presente trabajo fin de master se centra en estudiar el efecto del radio de entalla en la fundición gris GG-25, sometida a cargas en modo I (propagación de fisuras a partir de la entalla por fuerzas de tracción exclusivamente). En teoría, en un material frágil, a menor radio de entalla, la carga critica de rotura debería ser también menor. Sin embargo, en la tesis fin de master “Static tests under torsion loading of notched specimens made of grey cast iron: Experimental issues and Numerical Development” realizada por el estudiante Marco Marcón, de la Universidad de Padua, Italia, con este mismo material pero con solicitación en modo III, se observo que a menor radio de entalla, la carga de rotura de las probetas aumentaba. Para estudiar dicho efecto de entalla, se ha llevado a cabo una campana experimental Ensayándose 20 probetas agrupadas en cuatro radios de entalla. Posteriormente se realizaron simulaciones numéricas para comprobar el comportamiento del material y corroborar los resultados experimentales obtenidos, mediante el modelo de la fisura cohesiva implementada junto con un material de Hencky en el continuo.
Resumo:
Una investigación sobre la mejora de la contaminación del aire (CA) por medio de arbolado urbano se realizó en Madrid, una ciudad con casi 4 M de habitantes, 2,8 M de vehículos y casi 3 M de árboles de mantenimiento público. La mayoría de los árboles estaban en dos bosques periurbanos. Los 650.000 restantes era pies de alineación y parques. Los taxones estudiados fueron Platanus orientalis (97.205 árboles), Ulmus sp. (70.557), Pinus pinea (49.038), Aesculus hippocastanum (22.266), Cedrus sp. (13.678) y Quercus ilex (1.650), de calles y parques. Muestras foliares se analizaron en diferentes épocas del año, así como datos de contaminación por PM10 de 28 estaciones de medición de la contaminación durante 30 años, y también la intensidad del tráfico (IMD) en 2.660 calles. La acumulación de metales pesados (MP) sobre hojas y dentro de estas se estimó en relación con la CA y del suelo y la IMD del tráfico. La concentración media de Ba, Cd, Cr, Cu, Mn, Ni, Pb y Zn en suelo (materia seca) alcanzó: 489,5, 0,7, 49,4, 60,9, 460,9, 12,8, 155,9 y 190,3 mg kg-1 respectivamente. Los árboles urbanos, particularmente coníferas (debido a la mayor CA en invierno) contribuyen significativamente a mejorar la CA sobre todo en calles con alta IMD. La capacidad de las seis sp. para capturar partículas de polvo en su superficies foliares está relacionada con la IMD del tráfico y se estimó en 16,8 kg/año de MP tóxicos. Pb y Zn resultaron ser buenos marcadores antrópicos en la ciudad en relación con el tráfico, que fue la principal fuente de contaminación en los árboles y suelos de Madrid. Las especies de árboles variaron en función de su capacidad para capturar partículas (dependiendo de las propiedades de sus superficies foliares) y acumular los MP absorbidos de los suelos. Las concentraciones foliares de Pb y Zn estuvieron por encima de los límites establecidos en diferentes sitios de la ciudad. La microlocalización de Zn mediante microscópico mostró la translocación al xilema y floema. Se detectaron puntos de contaminación puntual de Cu and Cr en antiguos polígonos industriales y la distribución espacial de los MP en los suelos de Madrid mostró que en incluso en zonas interiores del El Retiro había ciertos niveles elevados de [Pb] en suelo, tal vez por el emplazamiento la Real Fábrica de Porcelana en la misma zona hace 200 años. Distintas áreas del centro de la ciudad también alcanzaron niveles altos de [Pb] en suelo. Según los resultados, el empleo de una combinación de Pinus pinea con un estrato intermedio de Ulmus sp. y Cedrus sp. puede ser la mejor recomendación como filtro verde eficiente. El efecto del ozono (O3) sobre el arbolado en Madrid fue también objeto de este estudio. A pesar de la reducción de precursores aplicada en muchos países industrializados, O3 sigue siendo la principal causa de CA en el hemisferio norte, con el aumento de [O3] de fondo. Las mayores [O3] se alcanzaron en regiones mediterráneas, donde el efecto sobre la vegetación natural es compensado por el xeromorfismo y la baja conductancia estomática en respuesta los episodios de sequía estival característicos de este clima. Durante una campaña de monitoreo, se identificaron daños abióticos en hojas de encina parecidos a los de O3 que estaban plantadas en una franja de césped con riego del centro de Madrid. Dada la poca evidencia disponible de los síntomas de O3 en frondosas perennifolias, se hizo un estudio que trató de 1) confirman el diagnóstico de daño de O3, 2) investigar el grado de los síntomas en encinas y 3) analizar los factores ambientales que contribuyeron a los daños por O3, en particular en lo relacionado con el riego. Se analizaron los marcadores macro y micromorfológicos de estrés por O3, utilizando las mencionadas encinas a modo de parcela experimental. Los síntomas consistieron en punteado intercostal del haz, que aumentó con la edad. Además de un punteado subyacente, donde las células superiores del mesófilo mostraron reacciones características de daños por O3. Las células próximas a las zonas dañadas, presentaron marcadores adicionales de estrés oxidativo. Estos marcadores morfológicos y micromorfológicos de estrés por O3 fueron similares a otras frondosas caducifolias con daños por O3. Sin embargo, en nuestro caso el punteado fue evidente con AOT40 de 21 ppm•h, asociada a riego. Análisis posteriores mostraron que los árboles con riego aumentaron su conductancia estomática, con aumento de senescencia, manteniéndose sin cambios sus características xeromórficas foliares. Estos hallazgos ponen de relieve el papel primordial de la disponibilidad de agua frente a las características xeromórficas a la hora de manifestarse los síntomas en las células por daños de O3 en encina. ABSTRACT Research about air pollution mitigation by urban trees was conducted in Madrid (Spain), a southern European city with almost 4 M inhabitants, 2.8 M daily vehicles and 3 M trees under public maintenance. Most trees were located in two urban forests, while 650'000 trees along urban streets and in parks. The urban taxa included Platanus orientalis (97'205 trees), Ulmus sp. (70’557), Pinus pinea (49'038), Aesculus hippocastanum (22’266), Cedrus sp. (13'678 and Quercus ilex (1'650) along streets and parks. Leave samples were analysed sequentially in different seasons, PM10 data from 28 air monitoring stations during 30 years and traffic density estimated from 2’660 streets. Heavy metal (HM) accumulation on the leaf surface and within leaves was estimated per tree related to air and soil pollution, and traffic intensity. Mean concentration of Ba, Cd, Cr, Cu, Mn, Ni, Pb and Zn in topsoil samples (dry mass) amounted in Madrid: 489.5, 0.7, 49.4, 60.9, 460.9, 12.8, 155.9 and 190.3 mg kg-1 respectively. Urban trees, particularly conifers (due to higher pollution in winter) contributed significantly to alleviate air pollution especially near to high ADT roads. The capacity of the six urban street trees species to capture air-born dust on the foliage surface as related to traffic intensity was estimated to 16.8 kg of noxious metals from exhausts per year. Pb and Zn pointed to be tracers of anthropic activity in the city with vehicle traffic as the main source of diffuse pollution on trees and soils. Tree species differed by their capacity to capture air-borne dust (by different leaf surface properties) and to allocate HM from soils. Pb and Zn concentrations in the foliage were above limits in different urban sites and microscopic Zn revelation showed translocation in xylem and phloem tissue. Punctual contamination in soils by Cu and Cr was identified in former industrial areas and spatial trace element mapping showed for central Retiro Park certain high values of [Pb] in soils even related to a Royal pottery 200 years ago. Different areas in the city centre also reached high levels [Pb] in soils. According to the results, a combination of Pinus pinea with understorey Ulmus sp. and Cedrus sp. layers can be recommended for the best air filter efficiency. The effects of ozone (O3) on trees in different areas of Madrid were also part of this study. Despite abatement programs of precursors implemented in many industrialized countries, ozone remained the main air pollutant throughout the northern hemisphere with background [O3] increasing. Some of the highest ozone concentrations were measured in regions with a Mediterranean climate but the effect on the natural vegetation is alleviated by low stomatal uptake and frequent leaf xeromorphy in response to summer drought episodes characteristic of this climate. During a bioindication survey, abiotic O3-like injury was identified in foliage. Trees were growing on an irrigated lawn strip in the centre of Madrid. Given the little structural evidence available for O3 symptoms in broadleaved evergreen species, a study was undertaken in 2007 with the following objectives 1) confirm the diagnosis, 2) investigate the extent of symptoms in holm oaks growing in Madrid and 3) analyse the environmental factors contributing to O3 injury, particularly, the site water supply. Therefore, macro- and micromorphological markers of O3 stress were analysed, using the aforementioned lawn strip as an intensive study site. Symptoms consisted of adaxial and intercostal stippling increasing with leaf age. Underlying stippling, cells in the upper mesophyll showed HR-like reactions typical of ozone stress. The surrounding cells showed further oxidative stress markers. These morphological and micromorphological markers of ozone stress were similar to those recorded in deciduous broadleaved species. However, stippling became obvious already at an AOT40 of 21 ppm•h and was primarily found at irrigated sites. Subsequent analyses showed that irrigated trees had their stomatal conductance increased and leaf life-span reduced whereas their leaf xeromorphy remained unchanged. These findings suggest a central role of water availability versus leaf xeromorphy for ozone symptom expression by cell injury in holm oak.
Resumo:
The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.
Resumo:
Las técnicas de speckle tienen un gran interés científico e ingenieril, ya que son métodos de ejecución rápida y no destructiva, con base en el análisis de las fluctuaciones de intensidad de la radiación producida cuando la luz coherente de un haz láser es esparcida por un material dado. En este caso se produce un patrón aleatorio de interferencia y difracción donde la suma de las componentes desfasadas dará lugar a máximos y mínimos de intensidad en distintos puntos del espacio. Éste, pese a tratarse de un ruido nocivo en multitud de áreas tales como la transmisión de señales o la holografía, tiene importantes propiedades físicas que lo caracterizan y lo hacen útil como medio para analizar sistemas reales de muy diversa índole. En el presente estudio, se ha llevado a cabo un análisis polarimétrico de la radiación aleatoria esparcida por una serie de muestras metálicas y dieléctricas con el objetivo de establecer una base comparativa que nos permita poder distinguir unas de otras. Para este fin se han comparado los parámetros de polarización de Stokes, el grado de polarización de la luz, las distribuciones de intensidad y el tamaño medio del speckle registrado en los distintos patrones de intensidad. Además, se analizará la dependencia de la rugosidad en el grado de polarización de la luz para los distintos medios sometidos a estudio. Abstract Speckle techniques have a great scientific and engineering interest as they are methods of rapid and non-destructive execution, based on the analysis of the fluctuations of intensity of the radiation produced when coherent light of a laser beam is scattered by a material given. In this case, a random pattern of interference and diffraction occurs where the sum of phase shifted components will result in maximum or minimum of intensity at different points in space. This, despite being a harmful noise in many areas such as signal transmission or holography, has important physical properties that characterize it and make it useful as a means to analyze real systems of various kinds. In the present study, we have conducted a polarimetric analysis of the random radiation scattered by a series of metal and dielectric samples in order to establish a comparative basis to allow us to distinguish one from another. To this end we have compared, the stokes polarization parameters, the degree of polarization (DOP), the intensity distributions and the average size of the speckle registered in the different intensity patterns. Furthermore, dependence of roughness in the DOP of light for the different means under study will be analyzed.
Resumo:
El desarrollo de sensores está ganando cada vez mayor importancia debido a la concienciación ciudadana sobre el medio ambiente haciendo que su desarrollo sea muy elevado en todas las disciplinas, entre las que cabe destacar, la medicina, la biología y la química. A pesar de la existencia de estos dispositivos, este área está aún por mejorar, ya que muchos de los materiales propuestos hasta el momento e incluso los ya comercializados muestran importantes carencias de funcionamiento, eficiencia e integrabilidad entre otros. Para la mejora de estos dispositivos, se han propuesto diversas aproximaciones basadas en nanosistemas. Quizá, uno de las más prometedoras son las nanoestructuras de punto cuántico, y en particular los semiconductores III-V basados en la consolidada tecnología de los arseniuros, las cuáles ofrecen excelentes propiedades para su uso como sensores. Además, estudios recientes demuestran su gran carácter sensitivo al medio ambiente, la posibilidad de funcionalizar la superficie para la fabricación de sensores interdisciplinares y posibilididad de mejorar notablemente su eficiencia. A lo largo de esta tesis, nos centramos en la investigación de SQD de In0.5Ga0.5As sobre substratos de GaAs(001) para el desarrollo de sensores de humedad. La tesis abarca desde el diseño, crecimiento y caracterización de las muestras hasta la el posterior procesado y caracterización de los dispositivos finales. La optimización de los parámetros de crecimiento es fundamental para conseguir una nanoestructura con las propiedades operacionales idóneas para un fin determinado. Como es bien sabido en la literatura, los parámetros de crecimiento (temperatura de crecimiento, relación de flujos del elemento del grupo V y del grupo I II (V/III), velocidad de crecimiento y tratamiento térmico después de la formación de la capa activa) afectan directamente a las propiedades estructurales, y por tanto, operacionales de los puntos cuánticos (QD). En esta tesis, se realiza un estudio de las condiciones de crecimiento para el uso de In0.5Ga0.5As SQDs como sensores. Para los parámetros relacionados con la temperatura de crecimiento de los QDs y la relación de flujos V / I I I se utilizan los estudios previamente realizados por el grupo. Mientras que este estudio se centrará en la importancia de la velocidad de crecimiento y en el tratamiento térmico justo después de la nucleación de los QDs. Para ello, se establece la temperatura de creciemiento de los QDs en 430°C y la relación de flujos V/III en 20. Como resultado, los valores más adecuados que se obtienen para la velocidad de crecimiento y el tratamiento térmico posterior a la formación de los puntos son, respectivamente, 0.07ML/s y la realización de una bajada y subida brusca de la temperatura del substrato de 100°C con respecto a la temperatura de crecimiento de los QDs. El crecimiento a una velocidad lo suficientemente alta que permita la migración de los átomos por la superficie, pero a su vez lo suficientemente baja para que se lleve a cabo la nucleación de los QDs; en combinación con el tratamiento brusco de temperatura que hace que se conserve la forma y composición de los QDs, da lugar a unos SQDs con un alto grado de homogeneidad y alta densidad superficial. Además, la caracterización posterior indica que estas nanoestructuras de gran calidad cristalina presentan unas propiedades ópticas excelentes incluso a temperatura ambiente. Una de las características por la cual los SQD de Ino.5Gao.5As se consideran candidatos prometedores para el desarrollo de sensores es el papel decisivo que juega la superficie por el mero hecho de estar en contacto directo con las partículas del ambiente y, por tanto, por ser capaces de interactuar con sus moléculas. Así pues, con el fin de demostrar la idoneidad de este sistema para dicha finalidad, se evalúa el impacto ambiental en las propiedades ópticas y eléctricas de las muestras. En un primer lugar, se analiza el efecto que tiene el medio en las propiedades ópticas. Para dicha evaluación se compara la variación de las propiedades de emisión de una capa de puntos enterrada y una superficial en distintas condiciones externas. El resultado que se obtiene es muy claro, los puntos enterrados no experimentan un cambio óptico apreciable cuando se varían las condiciones del entorno; mientras que, la emisión de los SQDs se modifica significativamente con las condiciones del medio. Por una parte, la intensidad de emisión de los puntos superficiales desaparece en condiciones de vacío y decrece notablemente en atmósferas secas de gases puros (N2, O2). Por otra parte, la fotoluminiscencia se conserva en ambientes húmedos. Adicionalmente, se observa que la anchura a media altura y la longitud de onda de emisión no se ven afectadas por los cambios en el medio, lo que indica, que las propiedades estructurales de los puntos se conservan al variar la atmósfera. Estos resultados apuntan directamente a los procesos que tienen lugar en la superficie entre estados confinados y superficiales como responsables principales de este comportamiento. Así mismo, se ha llevado a cabo un análisis más detallado de la influencia de la calidad y composición de la atmósfera en las propiedades ópticas de los puntos cuánticos superficiales. Para ello, se utilizan distintas sustancias con diferente polaridad, composición atómica y masa molecular. Como resultado se observa que las moléculas de menor polaridad y más pesadas causan una mayor variación en la intensidad de emisión. Además, se demuestra que el oxígeno juega un papel decisivo en las propiedades ópticas. En presencia de moléculas que contienen oxígeno, la intensidad de fotoluminiscencia disminuye menos que en atmósferas constituidas por especies que no contienen oxígeno. Las emisión que se observa respecto a la señal en aire es del 90% y del 77%, respectivamente, en atmósferas con presencia o ausencia de moléculas de oxígeno. El deterioro de la señal de emisión se atribuye a la presencia de defectos, enlaces insaturados y, en general, estados localizados en la superficie. Estos estados actúan como centros de recombinación no radiativa y, consecuentemente, se produce un empeoramiento de las propiedades ópticas de los SQDs. Por tanto, la eliminación o reducción de la densidad de estos estados superficiales haría posible una mejora de la intensidad de emisión. De estos experimentos de fotoluminiscencia, se deduce que las interacciones entre las moléculas presentes en la atmósfera y la superficie de la muestra modifican la superficie. Esta alteración superficial se traduce en un cambio significativo en las propiedades de emisión. Este comportamiento se atribuye a la posible adsorción de moléculas sobre la superficie pasivando los centros no radiativos, y como consecuencia, mejorando las propiedades ópticas. Además, los resultados demuestran que las moléculas que contienen oxígeno con mayor polaridad y más ligeras son adsorbidas con mayor facilidad, lo que hace que la intensidad óptica sufra variaciones despreciables con respecto a la emisión en aire. Con el fin de desarrollar sensores, las muestras se procesan y los dispositivos se caracterizan eléctricamente. El procesado consiste en dos contactos cuadrados de una aleación de Ti/Au. Durante el procesado, lo más importante a tener en cuenta es no realizar ningún ataque o limpieza que pueda dañar la superficie y deteriorar las propiedades de las nanostructuras. En este apartado, se realiza un análisis completo de una serie de tres muestras: GaAs (bulk), un pozo cuántico superficial (SQW) de Ino.5Gao.5As y SQDs de Ino.5Gao.5As. Para ello, a cada una de las muestras se le realizan medidas de I-V en distintas condiciones ambientales. En primer lugar, siguiendo los resultados obtenidos ópticamente, se lleva a cabo una comparación de la respuesta eléctrica en vacío y aire. A pesar de que todas las muestras presentan un carácter más resistivo en vacío que en aire, se observa una mayor influencia sobre la muestra de SQD. En vacío, la resistencia de los SQDs decrece un 99% respecto de su valor en aire, mientras que la variación de la muestras de GaAs e Ino.5Gao.5As SQW muestran una reducción, respectivamente, del 31% y del 20%. En segundo lugar, se realiza una evaluación aproximada del posible efecto de la humedad en la resistencia superficial de las muestras mediante la exhalación humana. Como resultado se obtiene, que tras la exhalación, la resistencia disminuye bruscamente y recupera su valor inicial cuando dicho proceso concluye. Este resultado preliminar indica que la humedad es un factor crítico en las propiedades eléctricas de los puntos cuánticos superficiales. Para la determinación del papel de la humedad en la respuesta eléctrica, se somete a las muestras de SQD y SQW a ambientes con humedad relativa (RH, de la siglas del inglés) controlada y se analiza el efecto sobre la conductividad superficial. Tras la variación de la RH desde 0% hasta el 70%, se observa que la muestra SQW no cambia su comportamiento eléctrico al variar la humedad del ambiente. Sin embargo, la respuesta de la muestra SQD define dos regiones bien diferenciadas, una de alta sensibilidad para valores por debajo del 50% de RH, en la que la resistencia disminuye hasta en un orden de magnitud y otra, de baja sensibilidad (>50%), donde el cambio de la resistencia es menor. Este resultado resalta la especial relevancia no sólo de la composición sino también de la morfología de la nanostructura superficial en el carácter sensitivo de la muestra. Por último, se analiza la influencia de la iluminación en la sensibilidad de la muestra. Nuevamente, se somete a las muestras SQD y SQW a una irradiación de luz de distinta energía y potencia a la vez que se varía controladamente la humedad ambiental. Una vez más, se observa que la muestra SQW no presenta ninguna variación apreciable con las alteraciones del entorno. Su resistencia superficial permanece prácticamente inalterable tanto al modificar la potencia de la luz incidente como al variar la energía de la irradiación. Por el contrario, en la muestra de SQD se obtiene una reducción la resistencia superficial de un orden de magnitud al pasar de condiciones de oscuridad a iluminación. Con respecto a la potencia y energía de la luz incidente, se observa que a pesar de que la muestra no experimenta variaciones notables con la potencia de la irradiación, esta sufre cambios significativos con la energía de la luz incidente. Cuando se ilumina con energías por encima de la energía de la banda prohibida (gap) del GaAs (Eg ~1.42 eV ) se produce una reducción de la resistencia de un orden de magnitud en atmósferas húmedas, mientras que en atmósferas secas la conductividad superficial permanece prácticamente constante. Sin embargo, al inicidir con luz de energía menor que Eg, el efecto que se produce en la respuesta eléctrica es despreciable. Esto se atribuye principalmente a la densidad de portadores fotoactivados durante la irradiación. El volumen de portadores excita dos depende de la energía de la luz incidente. De este modo, cuando la luz que incide tiene energía menor que el gap, el volumen de portadores generados es pequeño y no contribuye a la conductividad superficial. Por el contrario, cuando la energía de la luz incidente es alta (Eg), el volumen de portadores activados es elevado y éstos contribuyen significantemente a la conductividad superficial. La combinación de ambos agentes, luz y humedad, favorece el proceso de adsorción de moléculas y, por tanto, contribuye a la reducción de la densidad de estados superficiales, dando lugar a una modificación de la estructura electrónica y consecuentemente favoreciendo o dificultando el transporte de portadores. ABSTRACT Uncapped three-dimensional (3D) nanostructures have been generally grown to assess their structural quality. However, the tremendous growing importance of the impact of the environment on life has become such nanosystems in very promising candidates for the development of sensing devices. Their direct exposure to changes in the local surrounding may influence their physical properties being a perfect sign of the atmosphere quality. The goal of this thesis is the research of Ino.5Gao.5As surface quantum dots (SQDs) on GaAs(001), covering from their growth to device fabrication, for sensing applications. The achievement of this goal relies on the design, growth and sample characterization, along with device fabrication and characterization. The first issue of the thesis is devoted to analyze the main growth parameters affecting the physical properties of the Ino.5Gao.5As SQDs. It is well known that the growing conditions (growth temperature , deposition rate, V/III flux ratio and treatment after active layer growth) directly affect the physical properties of the epilayer. In this part, taking advantage of the previous results in the group regarding Ino.5Gao.5As QD growth temperature and V/III ratio, the effect of the growth rate and the temperature treatment after QDs growth nucleation is evaluated. Setting the QDs growth temperature at 430°C and the V/III flux ratio to ~20, it is found that the most appropriate conditions rely on growing the QDs at 0.07ML/s and just after QD nucleation, rapidly dropping and again raising 100°C the substrate temperature with respect to the temperature of QD growth. The combination of growing at a fast enough growth rate to promote molecule migration but sufficiently slow to allow QD nucleation, together with the sharp variation of the temperature preserving their shape and composition yield to high density, homogeneous Ino.5Gao.5As SQDs. Besides, it is also demonstrated that this high quality SQDs show excellent optical properties even at room temperature (RT). One of the characteristics by which In0.5Ga0.5As/GaAs SQDs are considered promising candidates for sensing applications is the crucial role that surface plays when interacting with the gases constituting the atmosphere. Therefore, in an attempt to develop sensing devices, the influence of the environment on the physical properties of the samples is evaluated. By comparing the resulting photoluminescence (PL) of SQDs with buried QDs (BQDs), it is found that BQDs do not exhibit any significant variation when changing the environmental conditions whereas, the external conditions greatly act on the SQDs optical properties. On one hand, it is evidenced that PL intensity of SQDs sharply quenches under vacuum and clearly decreases under dry-pure gases atmospheres (N2, O2). On the other hand, it is shown that, in water containing atmospheres, the SQDs PL intensity is maintained with respect to that in air. Moreover, it is found that neither the full width at half maximun nor the emission wavelength manifest any noticeable change indicating that the QDs are not structurally altered by the external atmosphere. These results decisively point to the processes taking place at the surface such as coupling between confined and surface states, to be responsible of this extraordinary behavior. A further analysis of the impact of the atmosphere composition on the optical characteristics is conducted. A sample containing one uncapped In0.5Ga0.5As QDs layer is exposed to different environments. Several solvents presenting different polarity, atomic composition and molecular mass, are used to change the atmosphere composition. It is revealed that low polarity and heavy molecules cause a greater variation on the PL intensity. Besides, oxygen is demonstrated to play a decisive role on the PL response. Results indicate that in presence of oxygen-containing molecules, the PL intensity experiments a less reduction than that suffered in presence of nonoxygen-containing molecules, 90% compared to 77% signal respect to the emission in air. In agreement with these results, it is demonstrated that high polarity and lighter molecules containing oxygen are more easily adsorbed, and consequently, PL intensity is less affected. The presence of defects, unsaturated bonds and in general localized states in the surface are proposed to act as nonradiative recombination centers deteriorating the PL emission of the sample. Therefore, suppression or reduction of the density of such states may lead to an increase or, at least, conservation of the PL signal. This research denotes that the interaction between sample surface and molecules in the atmosphere modifies the surface characteristics altering thus the optical properties. This is attributed to the likely adsoption of some molecules onto the surface passivating the nonradiative recombination centers, and consequently, not deteriorating the PL emission. Aiming for sensors development, samples are processed and electrically characterized under different external conditions. Samples are processed with two square (Ti/Au) contacts. During the processing, especial attention must be paid to the surface treatment. Any process that may damage the surface such as plasma etching or annealing must be avoided to preserve the features of the surface nanostructures. A set of three samples: a GaAs (bulk), In0.5Ga0.5As SQDs and In0.5Ga0.5As surface quantum well (SQW) are subjected to a throughout evaluation. I-V characteristics are measured following the results from the optical characterization. Firstly, the three samples are exposed to vacuum and air. Despite the three samples exhibit a more resistive character in vacuum than in air, it is revealed a much more clear influence of the pressure atmosphere in the SQDs sample. The sheet resistance (Rsh) of SQDs decreases a 99% from its response value under vacuum to its value in air, whereas Rsh of GaAs and In0.5Ga0.5As SQW reduces its value a 31% and a 20%, respectively. Secondly, a rough analysis of the effect of the human breath on the electrical response evidences the enormous influence of moisture (human breath is composed by several components but the one that overwhelms all the rest is the high concentration of water vapor) on the I-V characteristics. Following this result, In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW are subjected to different controlled relative humidity (RH) environments (from 0% to 70%) and electrically characterized. It is found that SQW shows a nearly negligible Rsh variation when increasing the RH in the surroundings. However, the response of SQDs to changes in the RH defines two regions. Below 50%, high sensitive zone, Rsh of SQD decreases by more than one order of magnitude, while above 50% the dependence of Rsh on the RH becomes weaker. These results remark the role of the surface and denote the existence of a finite number of surface states. Nevertheless, most significantly, they highlight the importance not only of the material but also of the morphology. Finally, the impact of the illumination is determined by means of irradiating the In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW samples with different energy and power sources. Once again, SQW does not exhibit any correlation between the surface conductivity and the external conditions. Rsh remains nearly unalterable independently of the energy and power of the incident light. Conversely, Rsh of SQD experiences a decay of one order of magnitude from dark-to-photo conditions. This is attributed to the less density of surface states of SQW compared to that of SQDs. Additionally, a different response of Rsh of SQD with the energy of the impinging light is found. Illuminating with high energy light results in a Rsh reduction of one order of mag nitude under humid atmospheres, whereas it remains nearly unchanged under dry environments. On the contrary, light with energy below the bulk energy bandgap (Eg), shows a negligible effect on the electrical properties regardless the local moisture. This is related to the density of photocarriers generated while lighting up. Illuminating with excitation energy below Eg affects a small absorption volume and thus, a low density of photocarriers may be activated leading to an insignificant contribution to the conductivity. Nonetheless, irradiating with energy above the Eg can excite a high density of photocarriers and greatly improve the surface conductivity. These results demonstrate that both illumination and humidity are therefore needed for sensing. The combination of these two agents improves the surface passivation by means of molecule adsorption reducing the density of surface states, thus modifying the electronic structures, and consequently, promoting the carrier motion.
Resumo:
En MAUT uno de los modelos más usados para representar las preferencias de los decisores es el modelo de utilidad multiatributo aditivo. En muchos problemas reales la determinación de las funciones de utilidad y pesos de cada atributo no pueden ser obtenidos de una forma precisa. En este trabajo consideramos que la imprecisión en las funciones de utilidad queda representada al considerar clases de funciones de utilidad, y la de los pesos mediante una ordenación de los mismos, intervalos de pesos, distribuciones de probabilidad normales o números difusos. La metodología que proponemos para resolver los problemas multiatributo imprecisos está basada en la intensidad de dominancia entre pares de alternativas. Partiendo de la matriz de dominancia se calcula para cada alternativa el valor de dominancia total, en función de la intensidad con la que esta alternativa domina al resto y el resto la domina a ella, el cual nos permitirá obtener la ordenación de las alternativas.