924 resultados para Los Alamos Scientific Laboratory. Theoretical Division.
Resumo:
Las redes sociales en la actualidad son muy relevantes, no solo ocupan mucho tiempo en la vida diaria de las personas si no que también sirve a millones de empresas para publicitarse entre otras cosas. Al fenómeno de las redes sociales se le ha unido la faceta empresarial. La liberación de las APIs de algunas redes sociales ha permitido el desarrollo de aplicaciones de todo tipo y que puedan tener diferentes objetivos como por ejemplo este proyecto. Este proyecto comenzó desde el interés por Ericsson del estudio del API de Google+ y sugerencias para dar valores añadidos a las empresas de telecomunicaciones. También ha complementando la referencia disponible en Ericsson y de los otros dos proyectos de recuperación de información de las redes sociales, añadiendo una serie de opciones para el usuario en la aplicación. Para ello, se ha analizado y realizado un ejemplo, de lo que podemos obtener de las redes sociales, principalmente Twitter y Google+. Lo primero en lo que se ha basado el proyecto ha sido en realizar un estudio teórico sobre el inicio de las redes sociales, el desarrollo y el estado en el que se encuentran, analizando así las principales redes sociales que existen y aportando una visión general sobre todas ellas. También se ha realizado un estado de arte sobre una serie de webs que se dedican al uso de esa información disponible en Internet. Posteriormente, de todas las redes sociales con APIs disponibles se realizó la elección de Google+ porque es una red social nueva aun por explorar y mejorar. Y la elección de Twitter por la serie de opciones y datos que se puede obtener de ella. De ambas se han estudiado sus APIs, para posteriormente con la información obtenida, realizar una aplicación prototipo que recogiera una serie de funciones útiles a partir de los datos de sus redes sociales. Por último se ha realizado una simple interfaz en la cual se puede acceder a los datos de la cuenta como si se estuviera en Twitter o Google+, además con los datos de Twitter se puede realizar una búsqueda avanzada con alertas, un análisis de sentimiento, ver tus mayores retweets de los que te siguen y por último realizar un seguimiento comparando lo que se comenta sobre dos temas determinados. Con este proyecto se ha pretendido proporcionar una idea general de todo lo relacionado con las redes sociales, las aplicaciones disponibles para trabajar con ellas, la información del API de Twitter y Google+ y un concepto de lo que se puede obtener. Today social networks are very relevant, they not only take a long time in daily life of people but also serve millions of businesses to advertise and other things. The phenomenon of social networks has been joined the business side. The release of the APIs of some social networks has allowed the development of applications of all types and different objectives such as this project. This project started from an interest in the study of Ericsson about Google+ API and suggestions to add value to telecommunications companies. This project has complementing the reference available in Ericsson and the other two projects of information retrieval of social networks, adding a number of options for the user in the application. To do this, we have analyzed and made an example of what we can get it from social networks, mainly Twitter and Google+. The first thing that has done in the project was to make a theoretical study on the initiation of social networks, the development and the state in which they are found, and analyze the major social networks that exist. There has also been made a state of art on a number of websites that are dedicated to the use of this information available online. Subsequently, about all the social networks APIs available, Google+ was choice because it is a new social network even to explore and improve. And the choice of Twitter for the number of options and data that can be obtained from it. In both APIs have been studied, and later with the information obtained, make a prototype application to collect a number of useful features from data of social networks. Finally there has been a simple interface, in which you can access the account as if you were on Twitter or Google+. With Twitter data can perform an advanced search with alerts, sentiment analysis, see retweets of who follow you and make comparing between two particular topics. This project is intended to provide an overview of everything related to social networks, applications available to work with them, information about API of Google+ and Twitter, and a concept of what you can get.
Resumo:
Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.
Resumo:
Debido al carácter innovador de los objetivos científico-tecnológicos planteados al inicio de la presente Tesis doctoral, además de la primera recopilación bibliográfica, a lo largo del desarrollo de la misma se ha realizado una actualización bibliográfica continua centrada en los desarrollos relativos a la instrumentación, las aplicaciones y los procesos de interpretación de las técnicas de tomografía eléctrica. Durante el desarrollo del presente trabajo, se han realizado una serie de campañas diferenciadas, tanto por los ambientes geológicos y las condiciones antrópicas en los que se han efectuado los perfiles geoeléctricos, como por la profundidad y los objetivos de la prospección. En esas campañas se han obtenido, mediante el programa Res2DInv, las secciones tomográficas con la configuración de variables por defecto y se ha realizado una interpretación estructural de las mismas. Como parte central del desarrollo de esta investigación se han efectuado varios procesos de optimización: Comparación y optimización de los dispositivos empleados para la medición de perfiles de resistividad de cara a la obtención de secciones tomográficas que presenten la mayor resolución en distintos ambientes geológicos. Selección de los rangos de representación (lineales y logarítmicos) y de la gradación cromática que, pudiendo adoptarse de forma generalizada, permita la mejor interpretación gráfica para usuarios no avanzados. Diseño de criterios para la selección del factor de amortiguamiento, como parámetro crítico en los procesos de inversión tomográfica de perfiles geoeléctricos de superficie, de forma que los modelos resultantes alcancen la mejor relación entre fiabilidad y error respecto a los valores medidos. Paralelamente a los procesos anteriores se ha definido un índice de calidad de la inversión, que es directamente normalizado y que permite evaluar el grado en el que pueden considerarse fiables tanto los valores de resistividad obtenidos como su distribución espacial. El índice desarrollado (IRI) está basado en la influencia que tiene la resistividad inicial del modelo de inversión en los valores de cada una de las celdas de la malla de inversión. Tras un exhaustivo análisis estadístico se ha verificado que, a diferencia de otros índices utilizados hasta la fecha, dicho índice no está afectado ni por la profundidad de investigación y la resolución de los dispositivos, ni por la distribución de resistividades que presente el subsuelo. ABSTRACT Due to the innovative character of the scientific and technological objectives proposed at the beginning of this thesis, in addition to preparatory bibliographic reference, a constant bibliographic update on developments related to instrumentation, applications and interpretation processes for electric tomography has been performed all through the development of the work. Several measuring campaigns were performed during the development of the thesis. These campaigns, in which the geoelectric profiles were measured, varied in several aspects, both in the geological and anthropic conditions, and also in the depth and objectives of the prospection. Tomographic sections were obtained and interpretated by making use of the Res2DInv software configured with the default variables. As part of the core development in this research, several optimization processes have been done: Comparison and optimization of the devices used in the measurement of resistivity profiles. This optimization allows increasing the resolution of tomographic sections in different geological conditions. Selection of the best visual representation for the tomographic sections. This involves the selection of the range of values and type of scale (linear vs. logarithmic) as well as the chromatic graduation. This selection allows improving the interpretation of tomographic sections for the non-expert eye. Devising of criteria for the selection of the damping factor, as the critical parameter in processes of tomographic inversion of superficial geoelectrical profiles. The use of these criteria allows selecting the best factors to obtain the best ratio between reliability and error (in relation to the mean values) for the resulting model. In addition to the aforementioned processes, and as part of the work within this thesis, it has been defined a normalized quality index for inversion. This index allows evaluating the degree of reliability of the obtained resistivity values and spatial distribution. The developed index, termed IRI in the thesis, is based on the influence shown by the initial resistivity of the inversion model on the values of each of the cells of the inversion mesh. After an exhaustive statistical analysis it was verified that the IRI index is neither affected by the investigation depth, nor the resolution of the devices, nor the resistivity’s distribution of the sub soil. This independency is a unique characteristic of the IRI index, not present in other indexes developed and used till date.
Resumo:
Ante la cuestión ¿La universidad debe amoldarse a la realidad ambiental o debe precursar nuevas realidades? se propone demostrar la factibilidad de alcanzar aproximaciones objetivables hacia el desarrollo sostenible, mediante la cooperación universitaria transfronteriza en ambientes urbanos insulares y costeros de la subregión del Caribe y Centroamérica. Se desarrolla el estudio en cuatro momentos: momento proyectivo en el cual se delimita el problema y se contextualiza su significación en el plano teórico de las sub-áreas implicadas. Fue reconocida la existencia de un problema social que, más allá de significar una actuación negativa intencional humana, revela una insuficiencia en el aprovechamiento de un potencial conocido y estratégico cuyos síntomas suelen ser: crisis ambiental generalizada; poca capacidad de respuesta por parte de las universidades ante las exigencias del desarrollo sostenible; incipientes estrategias de cooperación interinstitucional con refuerzo negativo en la atomización de esfuerzos materiales y comunicacionales. Se contrastaron enfoques y se adoptó una postura ante un hecho determinante: La universidad como articulador del desarrollo sostenible; hecho concretado en un objeto investigable: la cooperación universitaria como estrategia aún no focalizada en acercamientos al desarrollo sostenible. En la estrategia de abordaje de la investigación, la gestión fue considerada hipótesis de trabajo no positivista, generando en consecuencia la aplicación de adaptaciones a metodologías reconocidas, contextualizadas dentro de una particular visión sobre del hecho investigado. En el momento metodológico se describe el diseño concreto y los procedimientos de abordaje del problema en todas sus fases. En el momento técnico, fueron aplicados instrumentos y técnicas para obtener los datos diagnósticos e iniciar el diseño de un modelo de cooperación universitaria para el desarrollo sostenible. El diagnóstico se basó en estrategias cuali-cuantitativas que permitieron el análisis de resultados en la aplicación de encuestas, entrevistas a expertos, análisis prospectivo estructural, situacional e integrado. La construcción del modelo se desarrolló con fundamento en experiencias de cooperación previas, adoptando modelos de gestión de relevante alcance científico como referencias de aplicación. Se trata de una investigación socio-ambiental cuyo objeto de estudio la identifica como no experimental, aplicada; basada en el análisis descriptivo de datos cualicuantitativos, conducidos en un diseño de campo devenido finalmente en un proyecto factible. La información se recolectada por observación de campo, aplicación de instrumentos y dinámicas inspiradas en grupos de enfoque a escala local y nacional; con sujetos pertenecientes al sistema de educación universitaria e instancias gubernamentales y sociales propias del ámbito seleccionado. Conduce el estudio a la presentación del modelo MOP-GECUDES, descrito en cuanto a sus dimensiones, variables, estrategias; con 166 indicadores clasificados en 49 categorías, expresados en metas. Se presenta en 24 procedimientos, apoyados en 47 instrumentos específicos consistentes en aplicaciones prácticas, hojas metodológicas o manual de instrucciones para la operacionalización del modelo. Se complementa el diseño con un sistema de procedimientos surgidos de la propia experiencia, lo que le atribuye el modelo diseñado el rasgo particular de haber sido diseñado bajo sus propios principios. Faced with the question: Does the college must conform to the environmental reality or has to should promote new realities? This research aims to demonstrate the feasibility of achieving objectifiable approaches towards sustainable development through cross-border university cooperation in urban, coastal and islands space" of Caribbean and Central American. This study is developed in four stages: projective moment, in which delimits the problem, and contextualizes its importance in their theoretical subareas. It was recognized that there is a social problem, that beyond an intentional human action negative, reveals a deficience ability in exploiting potential strategic known and whose symptoms are: widespread environmental crisis, poor ability to answer on the part of universities to the demands of sustainable development; emerging interagency cooperation strategies with the aggravating fragmentation of resources. Were contrasted Approaches and was been adopted a stance before a triggering event: The university as articulator of sustainable development. Fact materialized in a study object: university cooperation as a strategy that yet has not been focused on approaches to sustainable development. In research approach, the management was considered as a working-hypothesis not positivist, consequently, were applied adjustments recognized methodologies that were contextualized within the author's personal view on the matter under investigation. En el momento metodológico se describe el diseño concreto y los procedimientos de abordaje del problema en todas sus fases. At the methodological time, describes the design and procedures to address the problem in all its phases. At the technical time, were applied tools directed to obtain diagnostic data and start designing a model of university cooperation for sustainable development. The diagnosis was based on qualitative and quantitative strategies that allowed the analysis of findings in the surveys, expert interviews, prospective analysis, and structural situational and integrated. Construction of the model was developed on the basis of cooperation experiences of the author, adopting management models relevant scientific scope and application references. It is a socio-environmental research with a not-experimental focus of study, applied, based on the descriptive analysis of qualitative and quantitative data, conducted in a field design that finally was been become a feasible project. The information is collected by field observation, application of instruments inspired in dynamic focus groups at local and national levels, with individual-subjects of the university education system; the government bodies and the social groups of the selected area. The Study leads to the presentation of the model MOP-GECUDES, described in terms of their dimensions, variables, strategies; with 166 indicators classified in 49 categories, expressed in its activities and goals. It comes in 24 procedures, supported by 47 specific instruments consisting of practical applications, methodology sheets or instructions for the operationalization of the model. Design is complemented with a system of procedures arising from the own experience. This have the particular attribute of generate a model than has been designed under its own principles.
Resumo:
This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente.
Resumo:
La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.
Resumo:
Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.
Resumo:
Objetivos. Análisis a través del prisma de la sostenibilidad, con un triple objetivo: consumo de energía, aspecto constructivo y recursos arquitectónicos, de algunos ejemplos destacados de vivienda aislada desde 1973, crisis del petróleo, hasta el cambio ideológico del 11 de septiembre de 2001. Emplazadas en microclimas semejantes en distintas latitudes, para extrapolar al clima mediterráneo. Ejemplos. Siete viviendas aisladas de distinto diseño conceptual, situadas en climas subtropicales, en ecosistemas variados pero de concepción medioambiental, constructiva y arquitectónica muy actual. Los ejemplos elegidos, por su intencionalidad, su diseño, y su sentido utilitario, constructivo y semiótico, se analizan desde el hecho acumulativo y el hecho reactivo, mediante el procedimiento de contrastar diversas fuentes de información. Objetivos. El análisis de cada una de las viviendas procedentes de diferentes arquitectos, se hace mediante la simulación de modelos que permitan describir la parte esencial del comportamiento de un sistema de interés, así como diseñar y realizar experimentos con el modelo para extraer conclusiones de sus resultados y apoyar la toma de decisiones proyectual. Procedimiento. En una primera fase, el medio natural queda definido por su localización, interpretación del lugar, el clima concreto (mediante climogramas generales y de isopletas), determinando un diagnóstico medioambiental para el establecimiento de estrategias a partir de los datos experimentales a contrastar con el resultado finalmente obtenido. En una segunda fase se eligen los casos más representativos de LowTech / LowEnergy y HighTech / HighEnergy. Se realiza un análisis del modelo, frente a uno de los elementos predominantes: sol, aire, agua, tierra, luna, vegetación y miscelánea. Resultados. De los casos estudiados se extraen principios aplicables en cada uno de los ámbitos: medioambiental, relacionados con la adaptabilidad energética; constructivo, en relación con la economía; y arquitectónico, vinculado con lo social, con una perspectiva diferente sobre los nuevos espacios vivibles. Conclusiones y relevancia. En los emplazamientos estudiados, los arquitectos herederos del movimiento moderno, han utilizado los recursos medioambientales pasivos y activos más actuales en cada uno de los elementos, así como la orientación, la ventilación, la radiación, la inercia térmica,…las actitudes más contemporáneas como expertos bioclimáticos. Los principios extraídos deben facilitar un proceso proyectual mediante pautas experimentales a desarrollar sin un uso desmesurado de la tecnología. Los principios y las conclusiones obtenidos servirán de aplicación a nuevos modelos conociendo los parámetros más relevantes. La modelización analógica - digital permitirá evaluar el comportamiento más aplicable según las necesidades a satisfacer. Objectives. Architectural analysis through the prism of sustainability with three aims: energy consumption, building technique and architectonical resources. The study is focused on some key examples of low density houses since 1973 (featured by the Oil crisis) until the 11th September 2001´s ideological change. These living spaces are settled in similar microclimates although in different latitudes with strong possibilities for applications in Mediterranean climates. Examples. Seven remote detached dwellings with different conceptual characters, located in subtropical climates, in different ecosystems, however with a sustainable basis and architectonical building concepts very updated. The cultural objects chosen, due to legitimate reasons such as: purpose, a plan, an utilitarian sense, constructive and semiotic, are analyzed under an accumulative perspective along with the reactive fact as the procedure to contrast and compare different sources of information. Goals. The analysis of the examples of different architects, will be done in order to simulate through models which describe and display the essential part of behaviour that corresponds to an interest system, along with the design and to try out or experiment with the model and to draw up results which support the projecting decision process. Procedure. On a first stage, the natural environment is shaped by its location, interpretation of the pace, a particular climate (through general climograms and isophlets), determining an environmental diagnosis which would be able to generate scientific conclusions in order to develop adequate strategies. Hence from experimental data we contrast with the results. On a second stage the more representative cases of LowTech / LowEnergy and HighTech / HighEnergy are choosen. We analyze the model taking into consideration and facing a key element: sun, air, water, soil, moon, vegetation and miscellany. Results. From the study cases we draw up applicable principles in each field: the ecological in relation with energetic adaptability, the constructive potential related with economy, and the social in relation with a different perspective about new architectural living spaces. Conclusions and Relevance. On those settlements studied, the heirs architects from Modern Movement, had used the passive and active, updated environmental resources in each element. For instance, aspects like orientation, ventilation, solar radiation, thermal inertia…, and the most contemporary attitude as bioclimatic expert that they are. These principles speed up through experimental guidelines, the technology is diminished and the design process be provided. The principles and conclusions generated will be useful in order to apply new models because we are able to know the most relevant key parameters. The analogical-digital modelizations allow us to revaluate the applicable behaviour according to the needs to satisfy.
Resumo:
En 1905, aparecen en la revista "Annalen der physik" tres artículos que revolucionarán las ciencias físicas y pondrán en jaque los asentados conceptos newtonianos de Espacio y Tiempo. La formulación de la Teoría de la Relatividad por Albert Einstein pone en crisis el valor absoluto de estos conceptos, y permite proponer nuevas reflexiones a propósito de su concepción dentro del campo de la física. Esta revolución ¿podría extrapolarse al campo de la arquitectura, donde Espacio y Tiempo tienen un papel protagonista? Hay que entender la complejidad del hecho arquitectónico y las innumerables variables que participan de su definición. Se estudia en esta Tesis Doctoral un aspecto muy concreto: cómo un paradigma (la Teoría de la Relatividad) puede intervenir y modificar, o no, la Arquitectura. Se plantea para ello ir al origen; desentrañar el momento de interacción entre la Teoría de la Relatividad y la Teoría de la Arquitectura, que permita determinar si aquella influyó sobre ésta en los escritos teóricos de las vanguardias aplicados a la Arquitectura. “Después de Einstein. Una arquitectura para una teoría” buscará los puntos de conexión de la Teoría de la Relatividad con la teoría arquitectónica de las vanguardias de principio del siglo XX, su influencia, la contaminación entre una y otra, con posibles resultados arquitectónicos a partir de esta interacción, capaz de definir nuevos argumentos formales para un nuevo lenguaje enArquitectura. Annalen der physik Después de Einstein. Una arquitectura para una teoría Para ello la Tesis se estructura en cuatro capítulos. El primero expone el ámbito geográfico y cronológico donde se desarrolla la Teoría de la Relatividad con la repercusión teórica que tiene para el arte, en función de una nueva definición de espacio vinculado al tiempo, como evento que se desarrolla en un ámbito cuatridimensional; la indeterminación de las medidas de espacio y de las medidas de tiempo, y la importancia de entender la materia como energía. El segundo capítulo estudia los movimientos de vanguardia coetáneos a la eclosión de la Relatividad, enmarcados en su ámbito geográfico más próximo. El cubismo se muestra como movimiento que participa ocasionalmente de las matemáticas y la geometría, bajo el influjo del científico Henri Poincaré y las geometrías no euclidianas. El futurismo indaga en los avances de la ciencia desde una cierta lejanía, cierta falta de rigor o profundidad científica para extraer las leyes de su nuevo idealismo plástico constructivo, definiendo e interpretando su Universo a partir de los avances de la ciencia, en respuesta a la crisis del espacio y del tiempo newtonianos. El lenguaje científico se encuentra presente en conceptos como "simultaneidad" (Boccioni), "expansión esférica de la luz en el espacio" (Severini y Carrá), "cuatridimensionalidad", "espacio-tiempo", "aire-luz-fuerza", "materia y energía" que paralelamente conforman el cuerpo operacional de la teoría de Einstein. Si bien no es posible atribuir a la Teoría de la Relatividad un papel protagonista como referente para el pensamiento artístico, en 1936, con la aparición del manifiesto Dimensionista, se atribuyen explícitamente a las teorías de Einstein las nuevas ideas de espacio-tiempo del espíritu europeo seguido por cubistas y futuristas. El tercer capítulo describe cómo la Teoría de la Relatividad llegó a ser fuente de inspiración para la Teoría de la Arquitectura. Estructurado en tres subcapítulos, se estudia el autor principal que aportó para la Arquitectura conceptos e ideas extrapoladas de la Teoría de la Relatividad después de su estudio e interpretación (Van Doesburg), dónde se produjeron las influencias y puntos de contacto (Lissitzky, Eggeling, Moholy-Nagy) y cómo fueron difundidas a través de la arquitectura (Einsteinturm de Mendelsohn) y de las revistas especializadas. El cuarto capítulo extrae las conclusiones del estudio realizado en esta Tesis, que bien pudiera resumir MoholyNagy en su texto "Vision inmotion" (1946) al comentar: "Ya que el "espacio-tiempo" puede ser un término engañoso, tiene que hacerse especialmente hincapié en que los problemas de espacio-tiempo en el arte no están necesariamente basados en la Teoría de la Relatividad de Einstein. Esto no tiene intención de descartar la relevancia de su teoría para las artes. Pero los artistas y los laicos rara vez tienen el conocimiento matemático para visualizar en fórmulas científicas las analogías con su propio trabajo. La terminología de Einstein del "espacio-tiempo" y la "relatividad" ha sido absorbida por nuestro lenguaje diario." ABSTRACT. "AFTER EINSTEIN:ANARCHITECTUREFORATHEORY." In 1905, three articles were published in the journal "Annalen der Physik ". They revolutionized physical sciences and threw into crisis the newtonian concepts of Space and Time. The formulation of the Theory of Relativity by Albert Einstein put a strain on the absolute value of these concepts, and proposed new reflections about them in the field of Physics. Could this revolution be extrapolated to the field of Architecture, where Space and Time have a main role? It is necessary to understand the complexity of architecture and the countless variables involved in its definition. For this reason, in this PhD. Thesis, we study a specific aspect: how a paradigm (Theory of Relativity) can intervene and modify -or not- Architecture. It is proposed to go back to the origin; to unravel the moment in which the interaction between the Theory of Relativity and the Theory of Architecture takes place, to determine whether the Theory of Relativity influenced on the theoretical avant-garde writings applied to Architecture. "After Einstein.An architecture for a theory " will search the connection points between the Theory of Relativity and architectural avant-garde theory of the early twentieth century, the influence and contamination between them, giving rise to new architectures that define new formal arguments for a new architectural language. Annalen der Physik This thesis is divided into four chapters. The first one describes the geographical and chronological scope in which the Theory of Relativity is developed showing its theoretical implications in the field of art, according to a new definition of Space linked to Time, as an event that takes place in a fourdimensional space; the indetermination of the measurement of space and time, and the importance of understanding "matter" as "energy". The second chapter examines the avant-garde movements contemporary to the theory of relativity. Cubism is shown as an artist movement that occasionally participates in mathematics and geometry, under the influence of Henri Poincaré and non-Euclidean geometries. Futurism explores the advances of science at a certain distance, with lack of scientific rigor to extract the laws of their new plastic constructive idealism. Scientific language is present in concepts like "simultaneity" (Boccioni), "expanding light in space" (Severini and Carra), "four-dimensional space", "space-time", "light-air-force," "matter and energy" similar to the operational concepts of Einstein´s theory. While it is not possible to attribute a leading role to the Theory of Relativity, as a benchmark for artistic laws, in 1936, with the publication of the Dimensionist manifest, the new ideas of space-time followed by cubist and futurist were attributed to the Einstein's theory. The third chapter describes how the Theory of Relativity became an inspiration for the architectural theory. Structured into three subsections, we study the main author who studied the theory of relativity and ,as a consequence, contributed with some concepts and ideas to the theory of architecture (Van Doesburg), where influences and contact points took place (Lissitzky, Eggeling, Moholy-Nagy) and how were disseminated throughArchitecture (Einsteinturm, by Mendelsohn) and journals. The fourth chapter draws the conclusions of this PhD. Thesis, which could be well summarized by Moholy Nagy in his text "Vision in Motion" (1946): vi Since "space-time" can be a misleading term, it especially has to be emphasized that the space-time problems in the arts are not necessarily based upon Einstein´s Theory of Relativity. This is not meant to discount the relevance of his theory to the arts. But artists and laymen seldom have the mathematical knowledge to visualize in scientific formulae the analogies to their own work. Einstein's terminology of "space-time" and "relativity" has been absorbed by our daily language.
Resumo:
Cada vez juegan un rol más relevante en nuestra vida las tecnologías de información, desde nuestros hogares hasta las empresas y gobiernos acceden a grandes volúmenes de datos e información, las comunicaciones ya no tienen impedimentos de distancias, un comprador y un vendedor puede estar en cualquier lugar, un producto que es adquirido en un comercio en Santiago a través de un medio de pago (tarjeta de crédito) en menos de un segundo la transacción va desde Chile a solicitar autorización en Singapur para ser aprobada. En la sociedad tanto oferentes como demandantes cuentan con información disponible en línea para la toma de decisiones. Existe una mayor apertura e integración económica iniciada con las redes comerciales, donde existen enfoques regionales y multilateral, que han impulsado la apertura del comercio y la integración económica. Son múltiples los tratados de libre comercio que apoyan al desarrollo económico, donde las crisis mundiales han afectado tanto las economías como el transporte, considerando que en el comercio internacional cerca del 90% se desarrolla a través de los puertos, es importante identificar relaciones entre el desarrollo de los medios de pago y el comercio electrónico a través de los puertos. Nuestra investigación busca integrar tanto aspectos de investigación científica como como investigación aplicada, de modo que sea un aporte al día a día de empresas en el sector de los medios de pago en Chile y quienes diseñan y definen la aplicación de normas y estándares. Esta tesis plantea una metodológica para analizar las relaciones entre la aplicación de estándares y sus efectos en la industria de los medios de pago en Chile. Este trabajo de investigación nos permitirá identificar entorno, variables que intervienen y evolución del mercado de los medios de pago, a través de un relevamiento del estado del arte de los medios de Pago en la industria Bancaria chilena. Buscaremos en el mercado de los medios de pago en la industria Chilena - sector Bancario, relaciones entre la aplicación de estándares y sus efectos en los volúmenes transaccionales, analizaremos las tendencias de los medios de pago y el desarrollo comercial del Puerto de Valparaíso. Se busca a través de esta metodológica poder mejorar la toma de decisiones en la industria de los medios de pago en Chile con una mejor gestión y uso de recursos. Every day information technology plays a greater role in our lives, from our homes to businesses, to how governments access large volumes of data and information. Communication is no longer hindered by distances, as a buyer and seller can be anywhere. A product that is purchased in a shop in Santiago through a payment option (credit card) in less than a second, a transaction will request authorization from Chile to Singapore to be approved. In this society both buyers and sellers have access to online information that is available for decision making. There is greater openness and economic integration that has begun within the commercial networks, in which there are regional and multilateral approaches that has helped expand trade and economic integration. Likewise, there are numerous free trade agreements that support economic development; however, the global crisis has affected economies like transportation. In regards to international commerce about 90% is developed through the ports, considering that the former is important to identify the relationships between the development of the payment options and e-commerce at the ports. Our research aims to integrate both the scientific research and applied research aspects, so that this will be a contribution to the day to day business for the payment options in Chile, and for those who design and define the application of norms and standards. This thesis offers a methodology to analyze the relationships between the application of standards and its affects in the industry of payment options in Chile. This research will allow us to identify the environmental variables that intervene and evolve the market of the payment options, through the analysis of the state of the art in the payment options in the Chilean Banking industry. In the market of the payment industry options we have looked specifically at the Chilean Banking industry and the relationship between the application of standards and their impact on transaction volumes. In addition, there has been an analysis of the activity of the payment options and wire transfers in the maritime industry in Valparaíso in order to define the feasibility of a model that allows us to relate these effects in these markets and the application of standards. We have searched the Chilean banking industry for the relationships between the application of standards and its effect on transaction volumes, in order to analyze the trends in the payment options and the commercial development at the Port of Valparaiso. Therefore, through the use of this methodology we look to be able to make better decisions in the payment options industry in Chile, with better management and use of the resources.
Resumo:
The paper presents analytical methods and results for assessing the variation in the concentration of sulphate (and other ions) over space and time in groundwater flowing through a soluble evaporite terrain beneath a dam. The influence of effective porosity, groundwater flow velocity and the specific rate of dissolution (K′) are considered. The theoretical analysis was tested in a scale model simulating a dam constructed on heavily karstified bedrock. A simple and useful method for assessing how much material is lost through dissolution and how the rate of dissolution changes over time is considered in the context of the Caspe Dam, Spain.
Resumo:
The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.
Resumo:
This PhD work is focused on liquid crystal based tunable phase devices with special emphasis on their design and manufacturing. In the course of the work a number of new manufacturing technologies have been implemented in the UPM clean room facilities, leading to an important improvement in the range of devices being manufactured in the laboratory. Furthermore, a number of novel phase devices have been developed, all of them including novel electrodes, and/or alignment layers. The most important manufacturing progress has been the introduction of reactive ion etching as a tool for achieving high resolution photolithography on indium-tin-oxide (ITO) coated glass and quartz substrates. Another important manufacturing result is the successful elaboration of a binding protocol of anisotropic conduction adhesives. These have been employed in high density interconnections between ITO-glass and flexible printed circuits. Regarding material characterization, the comparative study of nonstoichiometric silicon oxide (SiOx) and silica (SiO2) inorganic alignment layers, as well as the relationship between surface layer deposition, layer morphology and liquid crystal electrooptical response must be highlighted, together with the characterization of the degradation of liquid crystal devices in simulated space mission environment. A wide variety of phase devices have been developed, with special emphasis on beam steerers. One of these was developed within the framework of an ESA project, and consisted of a high density reconfigurable 1D blaze grating, with a spatial separation of the controlling microelectronics and the active, radiation exposed, area. The developed devices confirmed the assumption that liquid crystal devices with such a separation of components, are radiation hard, and can be designed to be both vibration and temperature sturdy. In parallel to the above, an evenly variable analog beam steering device was designed, manufactured and characterized, providing a narrow cone diffraction free beam steering. This steering device is characterized by a very limited number of electrodes necessary for the redirection of a light beam. As few as 4 different voltage levels were needed in order to redirect a light beam. Finally at the Wojskowa Akademia Techniczna (Military University of Technology) in Warsaw, Poland, a wedged analog tunable beam steering device was designed, manufactured and characterized. This beam steerer, like the former one, was designed to resist the harsh conditions both in space and in the context of the shuttle launch. Apart from the beam steering devices, reconfigurable vortices and modal lens devices have been manufactured and characterized. In summary, during this work a large number of liquid crystal devices and liquid crystal device manufacturing technologies have been developed. Besides their relevance in scientific publications and technical achievements, most of these new devices have demonstrated their usefulness in the actual work of the research group where this PhD has been completed. El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de nuevos dispositivos de fase basados en cristal líquido. Actualmente se están desarrollando dispositivos basados en cristal líquido para aplicaciones diferentes a su uso habitual como displays. Poseen la ventaja de que los dispositivos pueden ser controlados por bajas tensiones y no necesitan elementos mecánicos para su funcionamiento. La fabricación de todos los dispositivos del presente trabajo se ha realizado en la cámara limpia del grupo. La cámara limpia ha sido diseñada por el grupo de investigación, es de dimensiones reducidas pero muy versátil. Está dividida en distintas áreas de trabajo dependiendo del tipo de proceso que se lleva a cabo. La cámara limpia está completamente cubierta de un material libre de polvo. Todas las entradas de suministro de gas y agua están selladas. El aire filtrado es constantemente bombeado dentro de la zona limpia, a fin de crear una sobrepresión evitando así la entrada de aire sin filtrar. Las personas que trabajan en esta zona siempre deben de estar protegidas con un traje especial. Se utilizan trajes especiales que constan de: mono, máscara, guantes de látex, gorro, patucos y gafas de protección UV, cuando sea necesario. Para introducir material dentro de la cámara limpia se debe limpiar con alcohol y paños especiales y posteriormente secarlos con nitrógeno a presión. La fabricación debe seguir estrictamente unos pasos determinados, que pueden cambiar dependiendo de los requerimientos de cada dispositivo. Por ello, la fabricación de dispositivos requiere la formulación de varios protocolos de fabricación. Estos protocolos deben ser estrictamente respetados a fin de obtener repetitividad en los experimentos, lo que lleva siempre asociado un proceso de fabricación fiable. Una célula de cristal líquido está compuesta (de forma general) por dos vidrios ensamblados (sándwich) y colocados a una distancia determinada. Los vidrios se han sometido a una serie de procesos para acondicionar las superficies internas. La célula se llena con cristal líquido. De forma resumida, el proceso de fabricación general es el siguiente: inicialmente, se cortan los vidrios (cuya cara interna es conductora) y se limpian. Después se imprimen las pistas sobre el vidrio formando los píxeles. Estas pistas conductoras provienen del vidrio con la capa conductora de ITO (óxido de indio y estaño). Esto se hace a través de un proceso de fotolitografía con una resina fotosensible, y un desarrollo y ataque posterior del ITO sin protección. Más tarde, las caras internas de los vidrios se acondicionan depositando una capa, que puede ser orgánica o inorgánica (un polímero o un óxido). Esta etapa es crucial para el funcionamiento del dispositivo: induce la orientación de las moléculas de cristal líquido. Una vez que las superficies están acondicionadas, se depositan espaciadores en las mismas: son pequeñas esferas o cilindros de tamaño calibrado (pocos micrómetros) para garantizar un espesor homogéneo del dispositivo. Después en uno de los sustratos se deposita un adhesivo (gasket). A continuación, los sustratos se ensamblan teniendo en cuenta que el gasket debe dejar una boca libre para que el cristal líquido se introduzca posteriormente dentro de la célula. El llenado de la célula se realiza en una cámara de vacío y después la boca se sella. Por último, la conexión de los cables a la célula y el montaje de los polarizadores se realizan fuera de la sala limpia (Figura 1). Dependiendo de la aplicación, el cristal líquido empleado y los demás componentes de la célula tendrán unas características particulares. Para el diseño de los dispositivos de este trabajo se ha realizado un estudio de superficies inorgánicas de alineamiento del cristal líquido, que será de gran importancia para la preparación de los dispositivos de fase, dependiendo de las condiciones ambientales en las que vayan a trabajar. Los materiales inorgánicos que se han estudiado han sido en este caso SiOx y SiO2. El estudio ha comprendido tanto los factores de preparación influyentes en el alineamiento, el comportamiento del cristal líquido al variar estos factores y un estudio de la morfología de las superficies obtenidas.
Resumo:
En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.
Resumo:
Laser Shock Processing is developing as a key technology for the improvement of surface mechanical and corrosion resistance properties of metals due to its ability to introduce intense compressive residual stresses fields into high elastic limit materials by means of an intense laser driven shock wave generated by laser with intensities exceeding the 109 W/cm2 threshold, pulse energies in the range of 1 Joule and interaction times in the range of several ns. However, because of the relatively difficult-to-describe physics of shock wave formation in plasma following laser-matter interaction in solid state, only limited knowledge is available in the way of full comprehension and predictive assessment of the characteristic physical processes and material transformations with a specific consideration of real material properties. In the present paper, an account of the physical issues dominating the development of LSP processes from a moderately high intensity laser-matter interaction point of view is presented along with the theoretical and computational methods developed by the authors for their predictive assessment and new experimental contrast results obtained at laboratory scale.