935 resultados para Los Alamos Scientific Laboratory. Theoretical Division.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos. Análisis a través del prisma de la sostenibilidad, con un triple objetivo: consumo de energía, aspecto constructivo y recursos arquitectónicos, de algunos ejemplos destacados de vivienda aislada desde 1973, crisis del petróleo, hasta el cambio ideológico del 11 de septiembre de 2001. Emplazadas en microclimas semejantes en distintas latitudes, para extrapolar al clima mediterráneo. Ejemplos. Siete viviendas aisladas de distinto diseño conceptual, situadas en climas subtropicales, en ecosistemas variados pero de concepción medioambiental, constructiva y arquitectónica muy actual. Los ejemplos elegidos, por su intencionalidad, su diseño, y su sentido utilitario, constructivo y semiótico, se analizan desde el hecho acumulativo y el hecho reactivo, mediante el procedimiento de contrastar diversas fuentes de información. Objetivos. El análisis de cada una de las viviendas procedentes de diferentes arquitectos, se hace mediante la simulación de modelos que permitan describir la parte esencial del comportamiento de un sistema de interés, así como diseñar y realizar experimentos con el modelo para extraer conclusiones de sus resultados y apoyar la toma de decisiones proyectual. Procedimiento. En una primera fase, el medio natural queda definido por su localización, interpretación del lugar, el clima concreto (mediante climogramas generales y de isopletas), determinando un diagnóstico medioambiental para el establecimiento de estrategias a partir de los datos experimentales a contrastar con el resultado finalmente obtenido. En una segunda fase se eligen los casos más representativos de LowTech / LowEnergy y HighTech / HighEnergy. Se realiza un análisis del modelo, frente a uno de los elementos predominantes: sol, aire, agua, tierra, luna, vegetación y miscelánea. Resultados. De los casos estudiados se extraen principios aplicables en cada uno de los ámbitos: medioambiental, relacionados con la adaptabilidad energética; constructivo, en relación con la economía; y arquitectónico, vinculado con lo social, con una perspectiva diferente sobre los nuevos espacios vivibles. Conclusiones y relevancia. En los emplazamientos estudiados, los arquitectos herederos del movimiento moderno, han utilizado los recursos medioambientales pasivos y activos más actuales en cada uno de los elementos, así como la orientación, la ventilación, la radiación, la inercia térmica,…las actitudes más contemporáneas como expertos bioclimáticos. Los principios extraídos deben facilitar un proceso proyectual mediante pautas experimentales a desarrollar sin un uso desmesurado de la tecnología. Los principios y las conclusiones obtenidos servirán de aplicación a nuevos modelos conociendo los parámetros más relevantes. La modelización analógica - digital permitirá evaluar el comportamiento más aplicable según las necesidades a satisfacer. Objectives. Architectural analysis through the prism of sustainability with three aims: energy consumption, building technique and architectonical resources. The study is focused on some key examples of low density houses since 1973 (featured by the Oil crisis) until the 11th September 2001´s ideological change. These living spaces are settled in similar microclimates although in different latitudes with strong possibilities for applications in Mediterranean climates. Examples. Seven remote detached dwellings with different conceptual characters, located in subtropical climates, in different ecosystems, however with a sustainable basis and architectonical building concepts very updated. The cultural objects chosen, due to legitimate reasons such as: purpose, a plan, an utilitarian sense, constructive and semiotic, are analyzed under an accumulative perspective along with the reactive fact as the procedure to contrast and compare different sources of information. Goals. The analysis of the examples of different architects, will be done in order to simulate through models which describe and display the essential part of behaviour that corresponds to an interest system, along with the design and to try out or experiment with the model and to draw up results which support the projecting decision process. Procedure. On a first stage, the natural environment is shaped by its location, interpretation of the pace, a particular climate (through general climograms and isophlets), determining an environmental diagnosis which would be able to generate scientific conclusions in order to develop adequate strategies. Hence from experimental data we contrast with the results. On a second stage the more representative cases of LowTech / LowEnergy and HighTech / HighEnergy are choosen. We analyze the model taking into consideration and facing a key element: sun, air, water, soil, moon, vegetation and miscellany. Results. From the study cases we draw up applicable principles in each field: the ecological in relation with energetic adaptability, the constructive potential related with economy, and the social in relation with a different perspective about new architectural living spaces. Conclusions and Relevance. On those settlements studied, the heirs architects from Modern Movement, had used the passive and active, updated environmental resources in each element. For instance, aspects like orientation, ventilation, solar radiation, thermal inertia…, and the most contemporary attitude as bioclimatic expert that they are. These principles speed up through experimental guidelines, the technology is diminished and the design process be provided. The principles and conclusions generated will be useful in order to apply new models because we are able to know the most relevant key parameters. The analogical-digital modelizations allow us to revaluate the applicable behaviour according to the needs to satisfy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En 1905, aparecen en la revista "Annalen der physik" tres artículos que revolucionarán las ciencias físicas y pondrán en jaque los asentados conceptos newtonianos de Espacio y Tiempo. La formulación de la Teoría de la Relatividad por Albert Einstein pone en crisis el valor absoluto de estos conceptos, y permite proponer nuevas reflexiones a propósito de su concepción dentro del campo de la física. Esta revolución ¿podría extrapolarse al campo de la arquitectura, donde Espacio y Tiempo tienen un papel protagonista? Hay que entender la complejidad del hecho arquitectónico y las innumerables variables que participan de su definición. Se estudia en esta Tesis Doctoral un aspecto muy concreto: cómo un paradigma (la Teoría de la Relatividad) puede intervenir y modificar, o no, la Arquitectura. Se plantea para ello ir al origen; desentrañar el momento de interacción entre la Teoría de la Relatividad y la Teoría de la Arquitectura, que permita determinar si aquella influyó sobre ésta en los escritos teóricos de las vanguardias aplicados a la Arquitectura. “Después de Einstein. Una arquitectura para una teoría” buscará los puntos de conexión de la Teoría de la Relatividad con la teoría arquitectónica de las vanguardias de principio del siglo XX, su influencia, la contaminación entre una y otra, con posibles resultados arquitectónicos a partir de esta interacción, capaz de definir nuevos argumentos formales para un nuevo lenguaje enArquitectura. Annalen der physik Después de Einstein. Una arquitectura para una teoría Para ello la Tesis se estructura en cuatro capítulos. El primero expone el ámbito geográfico y cronológico donde se desarrolla la Teoría de la Relatividad con la repercusión teórica que tiene para el arte, en función de una nueva definición de espacio vinculado al tiempo, como evento que se desarrolla en un ámbito cuatridimensional; la indeterminación de las medidas de espacio y de las medidas de tiempo, y la importancia de entender la materia como energía. El segundo capítulo estudia los movimientos de vanguardia coetáneos a la eclosión de la Relatividad, enmarcados en su ámbito geográfico más próximo. El cubismo se muestra como movimiento que participa ocasionalmente de las matemáticas y la geometría, bajo el influjo del científico Henri Poincaré y las geometrías no euclidianas. El futurismo indaga en los avances de la ciencia desde una cierta lejanía, cierta falta de rigor o profundidad científica para extraer las leyes de su nuevo idealismo plástico constructivo, definiendo e interpretando su Universo a partir de los avances de la ciencia, en respuesta a la crisis del espacio y del tiempo newtonianos. El lenguaje científico se encuentra presente en conceptos como "simultaneidad" (Boccioni), "expansión esférica de la luz en el espacio" (Severini y Carrá), "cuatridimensionalidad", "espacio-tiempo", "aire-luz-fuerza", "materia y energía" que paralelamente conforman el cuerpo operacional de la teoría de Einstein. Si bien no es posible atribuir a la Teoría de la Relatividad un papel protagonista como referente para el pensamiento artístico, en 1936, con la aparición del manifiesto Dimensionista, se atribuyen explícitamente a las teorías de Einstein las nuevas ideas de espacio-tiempo del espíritu europeo seguido por cubistas y futuristas. El tercer capítulo describe cómo la Teoría de la Relatividad llegó a ser fuente de inspiración para la Teoría de la Arquitectura. Estructurado en tres subcapítulos, se estudia el autor principal que aportó para la Arquitectura conceptos e ideas extrapoladas de la Teoría de la Relatividad después de su estudio e interpretación (Van Doesburg), dónde se produjeron las influencias y puntos de contacto (Lissitzky, Eggeling, Moholy-Nagy) y cómo fueron difundidas a través de la arquitectura (Einsteinturm de Mendelsohn) y de las revistas especializadas. El cuarto capítulo extrae las conclusiones del estudio realizado en esta Tesis, que bien pudiera resumir MoholyNagy en su texto "Vision inmotion" (1946) al comentar: "Ya que el "espacio-tiempo" puede ser un término engañoso, tiene que hacerse especialmente hincapié en que los problemas de espacio-tiempo en el arte no están necesariamente basados en la Teoría de la Relatividad de Einstein. Esto no tiene intención de descartar la relevancia de su teoría para las artes. Pero los artistas y los laicos rara vez tienen el conocimiento matemático para visualizar en fórmulas científicas las analogías con su propio trabajo. La terminología de Einstein del "espacio-tiempo" y la "relatividad" ha sido absorbida por nuestro lenguaje diario." ABSTRACT. "AFTER EINSTEIN:ANARCHITECTUREFORATHEORY." In 1905, three articles were published in the journal "Annalen der Physik ". They revolutionized physical sciences and threw into crisis the newtonian concepts of Space and Time. The formulation of the Theory of Relativity by Albert Einstein put a strain on the absolute value of these concepts, and proposed new reflections about them in the field of Physics. Could this revolution be extrapolated to the field of Architecture, where Space and Time have a main role? It is necessary to understand the complexity of architecture and the countless variables involved in its definition. For this reason, in this PhD. Thesis, we study a specific aspect: how a paradigm (Theory of Relativity) can intervene and modify -or not- Architecture. It is proposed to go back to the origin; to unravel the moment in which the interaction between the Theory of Relativity and the Theory of Architecture takes place, to determine whether the Theory of Relativity influenced on the theoretical avant-garde writings applied to Architecture. "After Einstein.An architecture for a theory " will search the connection points between the Theory of Relativity and architectural avant-garde theory of the early twentieth century, the influence and contamination between them, giving rise to new architectures that define new formal arguments for a new architectural language. Annalen der Physik This thesis is divided into four chapters. The first one describes the geographical and chronological scope in which the Theory of Relativity is developed showing its theoretical implications in the field of art, according to a new definition of Space linked to Time, as an event that takes place in a fourdimensional space; the indetermination of the measurement of space and time, and the importance of understanding "matter" as "energy". The second chapter examines the avant-garde movements contemporary to the theory of relativity. Cubism is shown as an artist movement that occasionally participates in mathematics and geometry, under the influence of Henri Poincaré and non-Euclidean geometries. Futurism explores the advances of science at a certain distance, with lack of scientific rigor to extract the laws of their new plastic constructive idealism. Scientific language is present in concepts like "simultaneity" (Boccioni), "expanding light in space" (Severini and Carra), "four-dimensional space", "space-time", "light-air-force," "matter and energy" similar to the operational concepts of Einstein´s theory. While it is not possible to attribute a leading role to the Theory of Relativity, as a benchmark for artistic laws, in 1936, with the publication of the Dimensionist manifest, the new ideas of space-time followed by cubist and futurist were attributed to the Einstein's theory. The third chapter describes how the Theory of Relativity became an inspiration for the architectural theory. Structured into three subsections, we study the main author who studied the theory of relativity and ,as a consequence, contributed with some concepts and ideas to the theory of architecture (Van Doesburg), where influences and contact points took place (Lissitzky, Eggeling, Moholy-Nagy) and how were disseminated throughArchitecture (Einsteinturm, by Mendelsohn) and journals. The fourth chapter draws the conclusions of this PhD. Thesis, which could be well summarized by Moholy Nagy in his text "Vision in Motion" (1946): vi Since "space-time" can be a misleading term, it especially has to be emphasized that the space-time problems in the arts are not necessarily based upon Einstein´s Theory of Relativity. This is not meant to discount the relevance of his theory to the arts. But artists and laymen seldom have the mathematical knowledge to visualize in scientific formulae the analogies to their own work. Einstein's terminology of "space-time" and "relativity" has been absorbed by our daily language.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cada vez juegan un rol más relevante en nuestra vida las tecnologías de información, desde nuestros hogares hasta las empresas y gobiernos acceden a grandes volúmenes de datos e información, las comunicaciones ya no tienen impedimentos de distancias, un comprador y un vendedor puede estar en cualquier lugar, un producto que es adquirido en un comercio en Santiago a través de un medio de pago (tarjeta de crédito) en menos de un segundo la transacción va desde Chile a solicitar autorización en Singapur para ser aprobada. En la sociedad tanto oferentes como demandantes cuentan con información disponible en línea para la toma de decisiones. Existe una mayor apertura e integración económica iniciada con las redes comerciales, donde existen enfoques regionales y multilateral, que han impulsado la apertura del comercio y la integración económica. Son múltiples los tratados de libre comercio que apoyan al desarrollo económico, donde las crisis mundiales han afectado tanto las economías como el transporte, considerando que en el comercio internacional cerca del 90% se desarrolla a través de los puertos, es importante identificar relaciones entre el desarrollo de los medios de pago y el comercio electrónico a través de los puertos. Nuestra investigación busca integrar tanto aspectos de investigación científica como como investigación aplicada, de modo que sea un aporte al día a día de empresas en el sector de los medios de pago en Chile y quienes diseñan y definen la aplicación de normas y estándares. Esta tesis plantea una metodológica para analizar las relaciones entre la aplicación de estándares y sus efectos en la industria de los medios de pago en Chile. Este trabajo de investigación nos permitirá identificar entorno, variables que intervienen y evolución del mercado de los medios de pago, a través de un relevamiento del estado del arte de los medios de Pago en la industria Bancaria chilena. Buscaremos en el mercado de los medios de pago en la industria Chilena - sector Bancario, relaciones entre la aplicación de estándares y sus efectos en los volúmenes transaccionales, analizaremos las tendencias de los medios de pago y el desarrollo comercial del Puerto de Valparaíso. Se busca a través de esta metodológica poder mejorar la toma de decisiones en la industria de los medios de pago en Chile con una mejor gestión y uso de recursos. Every day information technology plays a greater role in our lives, from our homes to businesses, to how governments access large volumes of data and information. Communication is no longer hindered by distances, as a buyer and seller can be anywhere. A product that is purchased in a shop in Santiago through a payment option (credit card) in less than a second, a transaction will request authorization from Chile to Singapore to be approved. In this society both buyers and sellers have access to online information that is available for decision making. There is greater openness and economic integration that has begun within the commercial networks, in which there are regional and multilateral approaches that has helped expand trade and economic integration. Likewise, there are numerous free trade agreements that support economic development; however, the global crisis has affected economies like transportation. In regards to international commerce about 90% is developed through the ports, considering that the former is important to identify the relationships between the development of the payment options and e-commerce at the ports. Our research aims to integrate both the scientific research and applied research aspects, so that this will be a contribution to the day to day business for the payment options in Chile, and for those who design and define the application of norms and standards. This thesis offers a methodology to analyze the relationships between the application of standards and its affects in the industry of payment options in Chile. This research will allow us to identify the environmental variables that intervene and evolve the market of the payment options, through the analysis of the state of the art in the payment options in the Chilean Banking industry. In the market of the payment industry options we have looked specifically at the Chilean Banking industry and the relationship between the application of standards and their impact on transaction volumes. In addition, there has been an analysis of the activity of the payment options and wire transfers in the maritime industry in Valparaíso in order to define the feasibility of a model that allows us to relate these effects in these markets and the application of standards. We have searched the Chilean banking industry for the relationships between the application of standards and its effect on transaction volumes, in order to analyze the trends in the payment options and the commercial development at the Port of Valparaiso. Therefore, through the use of this methodology we look to be able to make better decisions in the payment options industry in Chile, with better management and use of the resources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The paper presents analytical methods and results for assessing the variation in the concentration of sulphate (and other ions) over space and time in groundwater flowing through a soluble evaporite terrain beneath a dam. The influence of effective porosity, groundwater flow velocity and the specific rate of dissolution (K′) are considered. The theoretical analysis was tested in a scale model simulating a dam constructed on heavily karstified bedrock. A simple and useful method for assessing how much material is lost through dissolution and how the rate of dissolution changes over time is considered in the context of the Caspe Dam, Spain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD work is focused on liquid crystal based tunable phase devices with special emphasis on their design and manufacturing. In the course of the work a number of new manufacturing technologies have been implemented in the UPM clean room facilities, leading to an important improvement in the range of devices being manufactured in the laboratory. Furthermore, a number of novel phase devices have been developed, all of them including novel electrodes, and/or alignment layers. The most important manufacturing progress has been the introduction of reactive ion etching as a tool for achieving high resolution photolithography on indium-tin-oxide (ITO) coated glass and quartz substrates. Another important manufacturing result is the successful elaboration of a binding protocol of anisotropic conduction adhesives. These have been employed in high density interconnections between ITO-glass and flexible printed circuits. Regarding material characterization, the comparative study of nonstoichiometric silicon oxide (SiOx) and silica (SiO2) inorganic alignment layers, as well as the relationship between surface layer deposition, layer morphology and liquid crystal electrooptical response must be highlighted, together with the characterization of the degradation of liquid crystal devices in simulated space mission environment. A wide variety of phase devices have been developed, with special emphasis on beam steerers. One of these was developed within the framework of an ESA project, and consisted of a high density reconfigurable 1D blaze grating, with a spatial separation of the controlling microelectronics and the active, radiation exposed, area. The developed devices confirmed the assumption that liquid crystal devices with such a separation of components, are radiation hard, and can be designed to be both vibration and temperature sturdy. In parallel to the above, an evenly variable analog beam steering device was designed, manufactured and characterized, providing a narrow cone diffraction free beam steering. This steering device is characterized by a very limited number of electrodes necessary for the redirection of a light beam. As few as 4 different voltage levels were needed in order to redirect a light beam. Finally at the Wojskowa Akademia Techniczna (Military University of Technology) in Warsaw, Poland, a wedged analog tunable beam steering device was designed, manufactured and characterized. This beam steerer, like the former one, was designed to resist the harsh conditions both in space and in the context of the shuttle launch. Apart from the beam steering devices, reconfigurable vortices and modal lens devices have been manufactured and characterized. In summary, during this work a large number of liquid crystal devices and liquid crystal device manufacturing technologies have been developed. Besides their relevance in scientific publications and technical achievements, most of these new devices have demonstrated their usefulness in the actual work of the research group where this PhD has been completed. El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de nuevos dispositivos de fase basados en cristal líquido. Actualmente se están desarrollando dispositivos basados en cristal líquido para aplicaciones diferentes a su uso habitual como displays. Poseen la ventaja de que los dispositivos pueden ser controlados por bajas tensiones y no necesitan elementos mecánicos para su funcionamiento. La fabricación de todos los dispositivos del presente trabajo se ha realizado en la cámara limpia del grupo. La cámara limpia ha sido diseñada por el grupo de investigación, es de dimensiones reducidas pero muy versátil. Está dividida en distintas áreas de trabajo dependiendo del tipo de proceso que se lleva a cabo. La cámara limpia está completamente cubierta de un material libre de polvo. Todas las entradas de suministro de gas y agua están selladas. El aire filtrado es constantemente bombeado dentro de la zona limpia, a fin de crear una sobrepresión evitando así la entrada de aire sin filtrar. Las personas que trabajan en esta zona siempre deben de estar protegidas con un traje especial. Se utilizan trajes especiales que constan de: mono, máscara, guantes de látex, gorro, patucos y gafas de protección UV, cuando sea necesario. Para introducir material dentro de la cámara limpia se debe limpiar con alcohol y paños especiales y posteriormente secarlos con nitrógeno a presión. La fabricación debe seguir estrictamente unos pasos determinados, que pueden cambiar dependiendo de los requerimientos de cada dispositivo. Por ello, la fabricación de dispositivos requiere la formulación de varios protocolos de fabricación. Estos protocolos deben ser estrictamente respetados a fin de obtener repetitividad en los experimentos, lo que lleva siempre asociado un proceso de fabricación fiable. Una célula de cristal líquido está compuesta (de forma general) por dos vidrios ensamblados (sándwich) y colocados a una distancia determinada. Los vidrios se han sometido a una serie de procesos para acondicionar las superficies internas. La célula se llena con cristal líquido. De forma resumida, el proceso de fabricación general es el siguiente: inicialmente, se cortan los vidrios (cuya cara interna es conductora) y se limpian. Después se imprimen las pistas sobre el vidrio formando los píxeles. Estas pistas conductoras provienen del vidrio con la capa conductora de ITO (óxido de indio y estaño). Esto se hace a través de un proceso de fotolitografía con una resina fotosensible, y un desarrollo y ataque posterior del ITO sin protección. Más tarde, las caras internas de los vidrios se acondicionan depositando una capa, que puede ser orgánica o inorgánica (un polímero o un óxido). Esta etapa es crucial para el funcionamiento del dispositivo: induce la orientación de las moléculas de cristal líquido. Una vez que las superficies están acondicionadas, se depositan espaciadores en las mismas: son pequeñas esferas o cilindros de tamaño calibrado (pocos micrómetros) para garantizar un espesor homogéneo del dispositivo. Después en uno de los sustratos se deposita un adhesivo (gasket). A continuación, los sustratos se ensamblan teniendo en cuenta que el gasket debe dejar una boca libre para que el cristal líquido se introduzca posteriormente dentro de la célula. El llenado de la célula se realiza en una cámara de vacío y después la boca se sella. Por último, la conexión de los cables a la célula y el montaje de los polarizadores se realizan fuera de la sala limpia (Figura 1). Dependiendo de la aplicación, el cristal líquido empleado y los demás componentes de la célula tendrán unas características particulares. Para el diseño de los dispositivos de este trabajo se ha realizado un estudio de superficies inorgánicas de alineamiento del cristal líquido, que será de gran importancia para la preparación de los dispositivos de fase, dependiendo de las condiciones ambientales en las que vayan a trabajar. Los materiales inorgánicos que se han estudiado han sido en este caso SiOx y SiO2. El estudio ha comprendido tanto los factores de preparación influyentes en el alineamiento, el comportamiento del cristal líquido al variar estos factores y un estudio de la morfología de las superficies obtenidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Laser Shock Processing is developing as a key technology for the improvement of surface mechanical and corrosion resistance properties of metals due to its ability to introduce intense compressive residual stresses fields into high elastic limit materials by means of an intense laser driven shock wave generated by laser with intensities exceeding the 109 W/cm2 threshold, pulse energies in the range of 1 Joule and interaction times in the range of several ns. However, because of the relatively difficult-to-describe physics of shock wave formation in plasma following laser-matter interaction in solid state, only limited knowledge is available in the way of full comprehension and predictive assessment of the characteristic physical processes and material transformations with a specific consideration of real material properties. In the present paper, an account of the physical issues dominating the development of LSP processes from a moderately high intensity laser-matter interaction point of view is presented along with the theoretical and computational methods developed by the authors for their predictive assessment and new experimental contrast results obtained at laboratory scale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Technofusion project involves the construction of a relevant set of scientific technical facilities in Madrid, providing new tools to fusion energy community.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Polysilicon cost impacts significantly on the photovoltaics (PV) cost and on the energy payback time. Nowadays, the besetting production process is the so called Siemens process, polysilicon deposition by chemical vapor deposition (CVD) from Trichlorosilane. Polysilicon purification level for PV is to a certain extent less demanding that for microelectronics. At the Instituto de Energía Solar (IES) research on this subject is performed through a Siemens process-type laboratory reactor. Through the laboratory CVD prototype at the IES laboratories, valuable information about the phenomena involved in the polysilicon deposition process and the operating conditions is obtained. Polysilicon deposition by CVD is a complex process due to the big number of parameters involved. A study on the influence of temperature and inlet gas mixture composition on the polysilicon deposition growth rate, based on experimental experience, is shown. Moreover, CVD process accounts for the largest contribution to the energy consumption of the polysilicon production. In addition, radiation phenomenon is the major responsible for low energetic efficiency of the whole process. This work presents a model of radiation heat loss, and the theoretical calculations are confirmed experimentally through a prototype reactor at our disposal, yielding a valuable know-how for energy consumption reduction at industrial Siemens reactors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The engineer must have sufficient theoretical knowledge to be applied to solve specific problems, with the necessary capacity to simplify these approaches, and taking into account factors such as speed, simplicity, quality and economy. In Geology, its ultimate goal is the exploration of the history of the geological events through observation, deduction, reasoning and, in exceptional cases by the direct underground exploration or experimentation. Experimentation is very limited in Geology. Reproduction laboratory of certain phenomena or geological processes is difficult because both time and space become a large scale. For this reason, some Earth Sciences are in a nearly descriptive stage whereas others closest to the experimental, Geophysics and Geochemistry, have assimilated progress experienced by the physics and chemistry. Thus, Anglo-Saxon countries clearly separate Engineering Geology from Geological Engineering, i.e. Applied Geology to the Geological Engineering concepts. Although there is a big professional overlap, the first one corresponds to scientific approach, while the last one corresponds to a technological one. Applied Geology to Engineering could be defined as the Science and Applied Geology to the design, construction and performance of engineering infrastructures in and field geology discipline. There has been much discussion on the primacy of theory over practice. Today prevails the exaggeration of practice, but you get good workers and routine and mediocre teachers. This idea forgets too that teaching problem is a problem of right balance. The approach of the action lines on the European Higher Education Area (EHEA) framework provides for such balance. Applied Geology subject represents the first real contact with the physical environment with the practice profession and works. Besides, the situation of the topic in the first trace of Study Plans for many students implies the link to other subjects and topics of the career (tunnels, dams, groundwater, roads, etc). This work analyses in depth the justification of such practical trips. It shows the criteria and methods of planning and the result which manifests itself in pupils. Once practical trips experience developed, the objective work tries to know about results and changes on student’s motivation in learning perspective. This is done regardless of the outcome of their knowledge achievements assessed properly and they are not subject to such work. For this objective, it has been designed a survey about their motivation before and after trip. Survey was made by the Unidad Docente de Geología Aplicada of the Departamento de Ingeniería y Morfología del Terreno (Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos, Universidad Politécnica de Madrid). It was completely anonymous. Its objective was to collect the opinion of the student as a key agent of learning and teaching of the subject. All the work takes place under new teaching/learning criteria approach at the European framework in Higher Education. The results are exceptionally good with 90% of student’s participation and with very high scores in a number of questions as the itineraries, teachers and visited places (range of 4.5 to 4.2 in a 5 points scale). The majority of students are very satisfied (average of 4.5 in a 5 points scale).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis se basa en la hipótesis de que la modernidad arquitectónica en México no es, como se ha pretendido, una historia homogénea, centrada en un puñado de figuras clave, sino una multiplicidad de narrativas complejas en las cuales el arte y los medios impresos juegan un papel esencial. Por tanto, se propone una nueva mirada sobre la arquitectura del siglo XX en México a partir de la relación con la fotografía, el dibujo, las ideas y los medios. La tesis se plantea con el fin de vincular la arquitectura con los movimientos artísticos relevantes, los autores con las publicaciones, las formas con los manifiestos. Asímismo, uno de los principales intereses es explorar los conceptos de modernidad y de identidad, como parte de la construcción misma de la arquitectura de dicha época y del concepto de “lo mexicano”. A pesar del énfasis que se ha dado en la construcción de un canon, muchas veces ligado a la noción de monumentalidad, regionalismo, y mestizaje, este trabajo parte de una mirada puesta no en las formas sino en los procesos. A partir de las conexiones entre distintas capas de información, se buscan nuevas maneras de abordar el proyecto arquitectónico. El crítico de arquitectura brasileño Hugo Segawa ha descrito la investigación sobre la arquitectura latinoamericana como “una tarea más de índole arqueológica que historiográfica”, sin embargo, también ha calificado a México como “el más vigoroso centro de debates teóricos en Latinoamérica a lo largo del siglo XX.” Ese descompas entre la ruina y el vigor, entre la abundancia de producción y la precariedad de su conservación, ha definido no solo el estudio de la arquitectura sino las propias formas de creación. Por tanto, la tesis se plantea como una nueva plataforma desde la cual sea posible reformular la arquitectura, lejos de su condición amnésica, pensada en cambio, como un sistema basado en una misma voluntad por indagar y crear. Se busca, siguiendo al crítico británico Anthony Vidler, “relacionar” la historia con el proyecto. Con el fin de quitarle lo escurridizo a una historia incompleta y sobre todo de poder entender la manera en que las ideas se convierten en forma o en objeto, la tesis se estructura a partir de 22 líneas de tiempo organizadas en tres recorridos que se cruzan: arquitectura; arte y pensamiento. A partir de referencias como el Atlas Mnemosyne de Aby Wargurg o la serie Asterisms del artista Gabriel Orozco, se crean nuevos dispositivos para ver. De tal manera, se desdoblan los distintos temas para trazar relaciones entre la ciudad, los edificios, las utopías, las publicaciones y la publicidad. El trabajo se construye como un nuevo instrumento de exploración articulado por medio de capas, como un mapa genealógico evolutivo. El objetivo es abarcar aquella arquitectura construida no sólo en la ciudad sino también en el papel. Iniciando con el trabajo de la generación que llevó la arquitectura al siglo XX, el estudio se extiende a manera de epílogo hasta la primera década del siglo XXI, reuniendo obras que normalmente se han visto de manera aislada para entenderlas en su contexto más amplio. Como escenario de búsquedas, esta tesis intenta provocar el cruce de significados, creyendo imprescindible una nueva reflexión en torno a la disciplina y a los escenarios en los cuales se inscribe. La arquitectura de México –un país que en el siglo XX pasó de tener 13 millones de habitantes a 100 millonescorresponde esencialmente a una producción anónima, o bien, fabricada a partir de estereotipos. Pero entre la mancha de desarrollo informal y el hito reconocible está un trabajo tan amplio como inexplorado. Por tanto, se ofrece una serie de nuevas constelaciones que comprenden desde la Revolución de 1910 a los Juegos Olímpicos de 1968; del terremoto de la ciudad de México en 1985 a los concursos internacionales de las últimas décadas. This thesis’ hypothesis states that architectural modernity in Mexico is not, as sometimes pretended, a homogeneous history, focused on some key figures, but rather a multiple and complex narrative, in which art and print media have played an essential role. Therefore, it proposes a new perspective on 20th century architecture in Mexico analized through the relationship between architecture and photography, art, theory and media. Its aim is to link architecture and artistic movements, authors and publications, forms and manifestos. What is intended here is to explore the concepts of ‘modernity’ and ‘identity’ as part of the construction of architecture and the concept of ‘Mexicanity’. Despite the emphasis that has been given to the construction of an architectural canon —mostly related to the notions of monumentality, regionalism and mestizaje/métissage— this thesis’ approach is focused mainly in processes and not in forms. Through connections between diverse layers of information, new ways of dealing with the architectural project are explored. Brazilian architecture critic Hugo Segawa has described the research on Latin American architecture as «more a task of archaeology than of historiography». Nonetheless, he has also described Mexico as «the most vigorous center of theoretical debates in Latin America throughout the 20th century». This acute discrepancy between decay and vigor, between abundance of production and precarious state of conservation has determined not only the ways in which architecture is studied and understood but also the process of architectural creation. This work is therefore outlined as a new platform in order to reformulate the discipline as a system based on a common will to research and create, far from the existing amnesiac attitude. Following British critic Anthony Vidler, the interest relies in the attempt to ‘relate’ History to project. In order to reduce the elusiveness of an incomplete history and, specially, to understand how ideas become forms and objects, this thesis is composed of 22 timelines organized in three intersecting itineraries: Architecture, Art and Theory. Drawing inspiration from Aby Warburg’s Atlas Mnemosyne and Gabriel Orozco’s series Asterisms, new exploration devices are created. In such a way, diverse topics unfold to draw connections between built environment, utopian projects, publications, photography and publicity. This work is developed as a new tool for exploration, articulated by layers, like an evolutionary genealogy map. Its objective is to analyze not only the architecture build in cities, but produced on paper. Starting with the work of the generation that led Mexican architecture into the 20th century, this research extends until the first decade of the 21st century (the epilogue), gathering together works which have been usually seen in isolation, and therefore making possible its understanding in a broader context. As a scenario for exploration, this work tries to prompt the crossing of meanings, in the belief that new approaches on the discipline and its context are needed. Architecture in Mexico — a country whose population grew in the 20th century form 13 to 100 million— is related essentially with an anonymous production, or else made from stereotypes. However, between the sprawl of informal urban developments and landmark buildings there is an architectural production as extensive as it is unexamined. This essay introduces a series of new constellations, ranging from the Revolution in 1910 to the Olympic Games in 1968; from the earthquake in Mexico City in 1985 to the international competitions of the last decade. These myriad perspectives present buildings that were never built, forgotten writings, iconic images and unpublished material.