34 resultados para Tuberculosis-Investigaciones-Tesis y disertaciones académicas
em Universidad Politécnica de Madrid
Resumo:
Durante muchos años, una de las constantes más claramente apuntadas por la mayor parte de los buceadores en la situación de la I + D en nuestro país, era la de la insuficiente coordinación entre los distintos sectores que componían su parte activa. No era sólo la descoordinación entre los diferentes grupos que realizaban tareas más o menos comunes; era también una descoordinación entre los diferentes departamentos ministeriales que llevaban a cabo funciones de I + D; era una desconexión entre los esfuerzos del sector académico y el sector productivo; y era también, finalmente, en muchos casos, un desenfoque entre los temas que se estudiaban aquí y los que se desarrollaban en los países de nuestro entorno geográfico. Todo ello, aunado a una situación que endémicamente servía de sustrato para ahogar cualquier intento racional de recuperación, ha conducido a un conjunto de esfuerzos que no han cristalizado casi nunca en realidades tangibles. La sociedad ha seguido bastante de espaldas a lo que la Ciencia y la Tecnología hacían y, éstas, a su vez se han desarrollado, también, de espaldas a lo que en ocasiones pedía la sociedad.
Resumo:
En este trabajo se estudian y detallan , bajo el punto de vista de los riesgos laborales, los riesgos que suponen para los trabajadores los principales procesos , equipos y máquinas que se emplean en el Laboratorio Oficial de Investigaciones Metalográficas de la ETSI Minas y Energía- UPM (LIMM) ya sean mecánicos, químicos, físicos o eléctricos. Además de los riesgos específicos citados debemos tener en cuenta que el personal del laboratorio también se ve sometido a riesgos por manipulación de cargas de forma repetitiva y continuada. El estudio y las propuestas en materia de prevención de riesgos laborales de este proyecto han sido elaboradas para cumplir con las medidas de protección necesarias como queda establecido en el artículo 14 de la Ley de Prevención de Riesgos Laborales - Ley 31/1995 sobre el derecho a la protección frente a los riesgos laborales para garantizar la seguridad y salud de las personas que realizan las actividades del laboratorio. El objetivo es presentar propuestas correctoras frente a los riesgos encontrados para erradicar el número de accidentes laborales que se han materializado o que pueden llegar a producirse a causa de unas deficientes condiciones de trabajo, estas propuestas ofrecen las medidas correctoras de tipo colectivo, prioritarias en cualquier plan de prevención de riesgos laborales, como medidas de tipo individual o particular, los llamados EPIs (equipos de protección individual). En primer lugar se actúa sobre el foco de origen del riesgo, si no fuera posible sobre el medio de propagación y si ninguna de las anteriores medidas se pudiera llevar a cabo sobre las personas que se encuentran en contacto.
Resumo:
El título del libro es el mismo que el de una reunión científica celebrada en Almadén (21-23 de marzo de 2012) y en la que se rindió homenaje a Claude Domergue, profesor emérito de la Universidad de Toulouse, pionero de la Arqueología Minera española y socio honorario de SEDPGYM. Esta obra fue editada por la UNED, en el mismo año, bajo la dirección de Mar Zarzalejos Prieto, Patricia Hevia Gómez y Luis Mansilla Plaza, todos ellos socios nuestros
Resumo:
Hasta hoy, el hombre ha sido capaz de alcanzar logros inesperados en términos de descubrimientos científicos; se ha desarrollado y ha avanzado de forma constante, al igual que sus investigaciones. Por otro lado, todo esto ha provocado varias consecuencias negativas que van unidas al desarrollo tecnológico. El hombre comenzó a utilizar la energía y los recursos naturales de manera muy egoísta, sin pensar, y sólo en los últimos años ha comenzado a considerar cuáles son los aspectos negativos de sus propios avances. Empezó a preguntarse hasta cuando la naturaleza va a tolerar el agotamiento de los recursos sin cargo. Es evidente que el uso constante de energía y sus recursos ha dado lugar a cambios muy importantes a nivel mundial, tales como la calefacción o el alarmante nivel de contaminación del medio ambiente. Uno de los pocos lados positivos de la crisis económica es que ha conducido a los grandes contaminadores a mirar a largo plazo, plantearse el futuro ecológico y aunar esfuerzos para buscar una solución mejor que la actual. Parece que el mundo comenzó a darse cuenta de que la crisis ecológica va más allá de la puramente energética, ya que las amenazas que provienen de los ámbitos de la energía tienen un impacto directo sobre el medio ambiente; así, resolver el problema de la energía se convirtió en una prioridad desde el punto de vista ambiental. En comparación con los países líderes de Europa y del resto del mundo, debido a la crisis financiera de Serbia, que se ha prolongado durante años, todavía no ha tenido oportunidad de desarrollar el sector energético, las nuevas tecnologías o la industria y, por lo tanto, afortunadamente, todavía no ha alcanzado un alto grado de la deterioro ecológico. Es un país muy rico en recursos naturales, especialmente los bosques y el agua, y dispone de muchas sustancias pendientes de investigación que podrían llegar a explotarse adecuadamente. La candidatura de adhesión de Serbia a la UE, confirmada a principios de este año, traerá muchos cambios e innovaciones en todo el sistema del país, por lo que tendrá un impacto directo en el desarrollo de la conciencia de todos los ciudadanos. Dado que Serbia se considera un país en desarrollo y un excelente terreno para las inversiones extranjeras, es importante en primer lugar crear un sistema que será modelado siguiendo los ejemplos de los países con una tradición de conservación de los recursos naturales y la eficiencia energética, para así ser capaz de limitar las actividades de los inversores extranjeros poniendo el medio ambiente en el primer lugar. Este trabajo está basado en los parámetros de las investigaciones, procesos y análisis de los sistemas que ya están en uso y que se han demostrado como buenos. El objetivo es provocar el interés sobre este tema, tomando como ejemplo Serbia, el país donde el desarrollo de la energía sigue y que representa una excelente base para la aplicación de los programas probados y eficaces, evitando de esta manera que se cometan los errores que algunos países han experimentado.
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.
Resumo:
En la actualidad, el crecimiento de la población y el desarrollo tecnológico de nuestros tiempos han originado novedosas formas de confort para los habitantes, lo cual a su vez se traduce en una demanda creciente de energía. No obstante, el concepto energético está llegando a la conciencia y es necesario adaptarse a la nueva situación, por lo tanto, es imprescindible el estudio y el aprovechamiento de nuevos sistemas constructivos de cerramientos, como pueden ser los cerramientos multicapas ligeros, que presentan características favorables para el ahorro en el consumo energético, y a su vez pueden ser industrializados, obteniendo beneficios, como la mejora de la calidad, el acortamiento de plazos constructivos, mayor seguridad, altas prestaciones, mayor ligereza, más espacio habitable, entre otros. El desarrollo de esta tesis doctoral esta centrado en definir tres propuestas de Cerramientos Multicapas Ligeros (CML) con estructura de light steel frame, analizando el comportamiento térmico y acústico, así como también el coste económico de las mismas, con el objetivo de demostrar que este tipo de sistema constructivo es una alternativa competitiva a los sistemas de Cerramientos Tradicionales y, que a su vez se puedan implementar en cualquier sistema constructivo y se puedan adaptar a los distintos ambientes climáticos que existen en España. Por otro lado, se han seleccionado tres Cerramientos Tradicionales, para llevar a cabo las distintas comparativas propuestas. La investigación se desarrolla en cinco grandes partes: La primera parte está formada por la justificación de la investigación y el planteamiento de los objetivos, así como también la hipótesis de partida y la metodología empleada. En la segunda parte se definen los antecedentes teóricos, divididos en tres temas: el cerramiento ? la fachada, la transmisión del calor y la transmisión del sonido en los cerramientos. También se realiza una síntesis del trabajo de investigación previo que he realizado ?Caracterización del comportamiento térmico de fachadas multicapas ligeras?, el cual sirve de base de partida para el desarrollo de esta tesis. Y por último, se desarrollan distintos temas relacionados con el Light Steel Frame (LSF), en donde se lleva a cabo una búsqueda de la documentación disponible sobre las investigaciones científico-tecnológicas, desde distintos puntos de vista: térmico, acústico, económico, estructural, en caso de incendio, industrialización y medioambiental ? sostenibilidad. Una vez realizados todos los puntos anteriores y para sintetizar la información, se lleva a cabo una clasificación de los sistemas de cerramientos que tienen como estructura el light steel frame, se analizan las ventajas e inconvenientes de cada uno de estos sistemas de la clasificación, llegando a unas conclusiones que sirven de base para definir las propuestas de Cerramientos Multicapas Ligeros. En la tercera parte, se definen los tres cerramientos tradicionales que se utilizan para realizar las comparativas con los cerramientos multicapas ligeros, definiendo las características de cada uno de los materiales y, también se desarrollan los criterios de diseño que deben cumplir los cerramientos multicapas ligeros, definiendo cada una de las tres muestras de ensayo de cerramientos multicapas ligeros. En la cuarta parte se lleva a cabo el análisis teórico ? experimental de las seis muestras de estudio, en donde, se realiza una investigación térmica basada en simulaciones y experimentaciones en células de ensayo e implementación de la termografía infrarroja. Por otro lado, se realiza también una investigación acústica desarrollando ensayos en laboratorio de aislamiento a ruido aéreo e intensimetría sonora. Y por último, se hace un análisis económico, tomando en cuenta las variables del coste de construcción, el consumo energético, el ahorro que supone la masa a la estructura y el espacio adicional que aporta este tipo de sistema constructivo a la superficie útil, para ello se plantean distintos escenarios de estudio. Una vez obtenidos los resultados de las diferentes investigaciones (térmica, acústica y económica), se llevan a cabo una serie de comparativas entre los cerramientos multicapas ligeros y los cerramientos tradicionales, y los cerramientos multicapas ligeros entre sí. En la quinta parte, se exponen las conclusiones derivadas de las distintas investigaciones y se realiza la comprobación de los objetivos propuestos y de la hipótesis de partida, destacando los hallazgos principales para cada situación y se presentan las líneas futuras de investigación que han ido surgiendo en el desarrollo de la tesis doctoral.
Resumo:
En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.
Resumo:
Los servicios telemáticos han transformando la mayoría de nuestras actividades cotidianas y ofrecen oportunidades sin precedentes con características como, por ejemplo, el acceso ubicuo, la disponibilidad permanente, la independencia del dispositivo utilizado, la multimodalidad o la gratuidad, entre otros. No obstante, los beneficios que destacan en cuanto se reflexiona sobre estos servicios, tienen como contrapartida una serie de riesgos y amenazas no tan obvios, ya que éstos se nutren de y tratan con datos personales, lo cual suscita dudas respecto a la privacidad de las personas. Actualmente, las personas que asumen el rol de usuarios de servicios telemáticos generan constantemente datos digitales en distintos proveedores. Estos datos reflejan parte de su intimidad, de sus características particulares, preferencias, intereses, relaciones sociales, hábitos de consumo, etc. y lo que es más controvertido, toda esta información se encuentra bajo la custodia de distintos proveedores que pueden utilizarla más allá de las necesidades y el control del usuario. Los datos personales y, en particular, el conocimiento sobre los usuarios que se puede extraer a partir de éstos (modelos de usuario) se han convertido en un nuevo activo económico para los proveedores de servicios. De este modo, estos recursos se pueden utilizar para ofrecer servicios centrados en el usuario basados, por ejemplo, en la recomendación de contenidos, la personalización de productos o la predicción de su comportamiento, lo cual permite a los proveedores conectar con los usuarios, mantenerlos, involucrarlos y en definitiva, fidelizarlos para garantizar el éxito de un modelo de negocio. Sin embargo, dichos recursos también pueden utilizarse para establecer otros modelos de negocio que van más allá de su procesamiento y aplicación individual por parte de un proveedor y que se basan en su comercialización y compartición con otras entidades. Bajo esta perspectiva, los usuarios sufren una falta de control sobre los datos que les refieren, ya que esto depende de la voluntad y las condiciones impuestas por los proveedores de servicios, lo cual implica que habitualmente deban enfrentarse ante la disyuntiva de ceder sus datos personales o no acceder a los servicios telemáticos ofrecidos. Desde el sector público se trata de tomar medidas que protejan a los usuarios con iniciativas y legislaciones que velen por su privacidad y que aumenten el control sobre sus datos personales, a la vez que debe favorecer el desarrollo económico propiciado por estos proveedores de servicios. En este contexto, esta tesis doctoral propone una arquitectura y modelo de referencia para un ecosistema de intercambio de datos personales centrado en el usuario que promueve la creación, compartición y utilización de datos personales y modelos de usuario entre distintos proveedores, al mismo tiempo que ofrece a los usuarios las herramientas necesarias para ejercer su control en cuanto a la cesión y uso de sus recursos personales y obtener, en su caso, distintos incentivos o contraprestaciones económicas. Las contribuciones originales de la tesis son la especificación y diseño de una arquitectura que se apoya en un proceso de modelado distribuido que se ha definido en el marco de esta investigación. Éste se basa en el aprovechamiento de recursos que distintas entidades (fuentes de datos) ofrecen para generar modelos de usuario enriquecidos que cubren las necesidades específicas de terceras entidades, considerando la participación del usuario y el control sobre sus recursos personales (datos y modelos de usuario). Lo anterior ha requerido identificar y caracterizar las fuentes de datos con potencial de abastecer al ecosistema, determinar distintos patrones para la generación de modelos de usuario a partir de datos personales distribuidos y heterogéneos y establecer una infraestructura para la gestión de identidad y privacidad que permita a los usuarios expresar sus preferencias e intereses respecto al uso y compartición de sus recursos personales. Además, se ha definido un modelo de negocio de referencia que sustenta las investigaciones realizadas y que ha sido particularizado en dos ámbitos de aplicación principales, en concreto, el sector de publicidad en redes sociales y el sector financiero para la implantación de nuevos servicios. Finalmente, cabe destacar que las contribuciones de esta tesis han sido validadas en el contexto de distintos proyectos de investigación industrial aplicada y también en el marco de proyectos fin de carrera que la autora ha tutelado o en los que ha colaborado. Los resultados obtenidos han originado distintos méritos de investigación como dos patentes en explotación, la publicación de un artículo en una revista con índice de impacto y diversos artículos en congresos internacionales de relevancia. Algunos de éstos han sido galardonados con premios de distintas instituciones, así como en las conferencias donde han sido presentados. ABSTRACT Information society services have changed most of our daily activities, offering unprecedented opportunities with certain characteristics, such as: ubiquitous access, permanent availability, device independence, multimodality and free-of-charge services, among others. However, all the positive aspects that emerge when thinking about these services have as counterpart not-so-obvious threats and risks, because they feed from and use personal data, thus creating concerns about peoples’ privacy. Nowadays, people that play the role of user of services are constantly generating digital data in different service providers. These data reflect part of their intimacy, particular characteristics, preferences, interests, relationships, consumer behavior, etc. Controversy arises because this personal information is stored and kept by the mentioned providers that can use it beyond the user needs and control. Personal data and, in particular, the knowledge about the user that can be obtained from them (user models) have turned into a new economic asset for the service providers. In this way, these data and models can be used to offer user centric services based, for example, in content recommendation, tailored-products or user behavior, all of which allows connecting with the users, keeping them more engaged and involved with the provider, finally reaching customer loyalty in order to guarantee the success of a business model. However, these resources can be used to establish a different kind of business model; one that does not only processes and individually applies personal data, but also shares and trades these data with other entities. From that perspective, the users lack control over their referred data, because it depends from the conditions imposed by the service providers. The consequence is that the users often face the following dilemma: either giving up their personal data or not using the offered services. The Public Sector takes actions in order to protect the users approving, for example, laws and legal initiatives that reinforce privacy and increase control over personal data, while at the same time the authorities are also key players in the economy development that derives from the information society services. In this context, this PhD Dissertation proposes an architecture and reference model to achieve a user-centric personal data ecosystem that promotes the creation, sharing and use of personal data and user models among different providers, while offering users the tools to control who can access which data and why and if applicable, to obtain different incentives. The original contributions obtained are the specification and design of an architecture that supports a distributed user modelling process defined by this research. This process is based on leveraging scattered resources of heterogeneous entities (data sources) to generate on-demand enriched user models that fulfill individual business needs of third entities, considering the involvement of users and the control over their personal resources (data and user models). This has required identifying and characterizing data sources with potential for supplying resources, defining different generation patterns to produce user models from scattered and heterogeneous data, and establishing identity and privacy management infrastructures that allow users to set their privacy preferences regarding the use and sharing of their resources. Moreover, it has also been proposed a reference business model that supports the aforementioned architecture and this has been studied for two application fields: social networks advertising and new financial services. Finally, it has to be emphasized that the contributions obtained in this dissertation have been validated in the context of several national research projects and master thesis that the author has directed or has collaborated with. Furthermore, these contributions have produced different scientific results such as two patents and different publications in relevant international conferences and one magazine. Some of them have been awarded with different prizes.
Resumo:
El concepto de casa crecedera, tal y como lo conocemos en la actualidad, se acuñó por primera vez en 1932 en el concurso Das Wachsende Haus organizado por Martin Wagner y Hans Poelzig dentro del marco de la Exposición Internacional Sonne, Luft und Haus für alle, promovida por la Oficina de Turismo de la ciudad de Berlín. En dicho concurso, se definía este tipo de vivienda como aquella célula básica o vivienda semilla que, dependiendo de las necesidades y posibilidades de los habitantes, podía crecer mediante otras estancias, conformando una vivienda completa en sí misma en cada fase de crecimiento. Numerosos arquitectos de primer orden, tales como Walter Gropius, Bruno Taut, Erich Mendelsohn o Hans Scharoun, participaron en este concurso, abriendo una nueva vía de exploración dentro de la vivienda flexible, la del crecimiento programado. A partir de ese momento, en Europa, y subsecuentemente en EEUU y otras regiones desarrolladas, se iniciaron numerosas investigaciones teóricas y prácticas en torno al fenómeno del crecimiento en la vivienda desde un enfoque vinculado a la innovación, tanto espacial como técnica. Por otro lado, aunque dentro del marco de la arquitectura popular de otros países, ya se ensayaban viviendas crecederas desde el siglo XVIII debido a que, por su tamaño, eran más asequibles dentro del mercado. Desde los años treinta, numerosos países en vías de desarrollo tuvieron que lidiar con migraciones masivas del campo a la ciudad, por lo que se construyeron grandes conjuntos habitacionales que, en numerosos casos, estaban conformados por viviendas crecederas. En todos ellos, la aproximación al crecimiento de la vivienda se daba desde una perspectiva diferente a la de los países desarrollados. Se primaba la economía de medios, el uso de sistemas constructivos de bajo costo y, en muchos casos, se fomentaba incluso la autoconstrucción guiada, frente a las construcciones prefabricadas ensambladas por técnicos especializados que se proponían, por ejemplo, en los casos europeos. Para realizar esta investigación, se recopiló información de estas y otras viviendas. A continuación, se identificaron distintas maneras de producir el crecimiento, atendiendo a su posición relativa respecto de la vivienda semilla, a las que se denominó mecanismos de ampliación, utilizados indistintamente sin tener en cuenta la ubicación geográfica de cada casa. La cuestión de porqué se prefiere un mecanismo en lugar de otro en un caso determinado, desencadenó el principal objetivo de esta Tesis: la elaboración de un sistema de análisis y diagnóstico de la vivienda crecedera que, de acuerdo a determinados parámetros, permitiera indicar cuál es la ampliación o sucesión de ampliaciones óptimas para una familia concreta, en una ubicación establecida. Se partió de la idea de que el crecimiento de la vivienda está estrechamente ligado a la evolución de la unidad de convivencia que reside en ella, de manera que la casa se transformó en un hábitat dinámico. Además se atendió a la complejidad y variabilidad del fenómeno, sujeto a numerosos factores socio-económicos difícilmente previsibles en el tiempo, pero fácilmente monitorizables según unos patrones determinados vinculados a la normatividad, el número de habitantes, el ahorro medio, etc. Como consecuencia, para el diseño del sistema de optimización de la vivienda crecedera, se utilizaron patrones evolutivos. Dichos patrones, alejados ya del concepto espacial y morfológico usualmente utilizado en arquitectura por figuras como C. Alexander o J. Habraken, pasaron a entenderse como una secuencia de eventos en el tiempo (espaciales, sociales, económicos, legales, etc.), que describen el proceso de transformación y que son peculiares de cada vivienda. De esta manera, el tiempo adquirió una especial importancia al convertirse en otro material más del proyecto arquitectónico. Fue en la construcción de los patrones donde se identificaron los mencionados mecanismos de ampliación, entendidos también como sistemas de compactación de la ciudad a través de la ocupación tridimensional del espacio. Al estudiar la densidad, mediante los conceptos de holgura y hacinamiento, se aceptó la congestión de las ciudades como un valor positivo. De esta forma, las posibles transformaciones realizadas por los habitantes (previstas desde un inicio) sobre el escenario del habitar (vivienda semilla), se convirtieron también en herramientas de proyecto urbano que responden a condicionantes del lugar y de los habitantes con distintas intensidades de crecimiento, ocupación y densidad. Igualmente, en el proceso de diseño del sistema de optimización, se detectaron las estrategias para la adaptabilidad y transformación de la casa crecedera, es decir, aquella serie de acciones encaminadas a la alteración de la vivienda para facilitar su ampliación, y que engloban desde sistemas constructivos en espera, que facilitan las costuras entre crecimiento y vivienda semilla, hasta sistemas espaciales que permiten que la casa altere su uso transformándose en un hábitat productivo o en un artefacto de renta. Así como los mecanismos de ampliación están asociados a la morfología, se descubrió que su uso es independiente de la localización, y que las estrategias de adaptabilidad de la vivienda se encuentran ligadas a sistemas constructivos o procesos de gestión vinculados a una región concreta. De esta manera, la combinación de los mecanismos con las estrategias caracterizan el proceso de evolución de la vivienda, vinculándola a unos determinados condicionantes sociales, geográficos y por tanto, constructivos. Finalmente, a través de la adecuada combinación de mecanismos de ampliación y estrategias de adaptabilidad en el proyecto de la vivienda con crecimiento programado es posible optimizar su desarrollo en términos económicos, constructivos, sociales y espaciales. Como resultado, esto ayudaría no sólo a mejorar la vida de los habitantes de la vivienda semilla en términos cualitativos y cuantitativos, sino también a compactar las ciudades mediante sistemas incluyentes, ya que las casas crecederas proporcionan una mayor complejidad de usos y diversidad de relaciones sociales. ABSTRACT The growing house concept -as we currently know it- was used for the first time back in 1932 in the competition Das Wachsende Haus organized by Martin Wagner and Hans Poelzig during the International Exhibition Sonne, Luft und Haus für alle, promoted by Berlin's Tourist Office. In that competition this type of housing was defined as a basic cell or a seed house unit, and depending on the needs and capabilities of the residents it could grow by adding rooms and defining itself as a complete house unit during each growing stage. Many world-top class architects such as Walter Gropius, Bruno Taut, Erich Mendelsohn or Hans Scharoun, were part of this competition exploring a new path in the flexible housing field, the scheduled grownth. From that moment and on, in Europe -and subsequently in the USA and other developed areas- many theorical and pragmatical researchs were directed towards the growing house phenomena, coming from an initial approach related to innovation, spacial and technical innovation. Furthermore -inside the traditional architecture frame in other countries, growing houses were already tested in the XVIII century- mainly due to the size were more affordable in the Real State Market. Since the 30's decade many developing countries had to deal with massive migration movements from the countryside to cities, building large housing developments were -in many cases- formed by growing housing units. In all of these developing countries the growing house approach was drawn from a different perspective than in the developed countries. An economy of means was prioritized, the utilization of low cost construction systems and -in many cases- a guided self-construction was prioritized versus the prefabricated constructions set by specialized technics that were proposed -for instance- in the European cases. To proceed with this research, information from these -and other- housing units was gathered. From then and on different ways to perform the growing actions were identified, according to its relative position from the seed house unit, these ways were named as addition or enlargement mechanisms indifferently utilized without adknowledging the geographic location for each house. The question of why one addition mechanism is preferred over another in any given case became the main target of this Thesis; the ellaboration of an analysis and diagnosis system for the growing house -according to certain parameters- would allow to point out which is the addition or addition process more efficient for a certain family in a particular location. As a starting point the grownth of the housing unit is directly linked to the evolution of the family unit that lives on it, so the house becomes a dynamic habitat. The complexity and the variability of the phenomena was taken into consideration related to a great number of socio-economic factors hardly able to be foreseen ahead on time but easy to be monitored according to certain patterns linked to regulation, population, average savings, etc As a consequence, to design the optimization system for the growing house, evolutionary patterns were utilized. Those patterns far away from the spatial and morphologic concept normally utilized in Architecture by characters like C. Alexander or J. Habraken, started to be understood like a sequence of events on time (spatial events, social events, economic events, legal events, etc) that describes the transformation process and that are particular for each housing unit. Therefore time became something important as another ingredient in the Architectural Project. The before mentioned addition or enlargement mechanisms were identified while building the patterns; these mechanisms were also understood as city's system of compactation through the tridimendional ocupation of space. Studying density, thorough the concepts of comfort and overcrowding, traffic congestion in the city was accepted as a positive value. This way, the possible transformations made by the residents (planned from the begining) about the residencial scenary (seed house), also became tools of the urban project that are a response to site's distinctive features and to the residents with different grownth intensities, activities and density Likewise, during the process of designing the optimization system, strategies for adaptations and transformation of the growing house were detected, in other words, the serial chain of actions directed to modify the house easing its enlargement or addition, and that comprehends from constructive systems on hold -that smooths the costures between grownth and housing seed- to spatial systems that allows that the house modify its utilization, becoming a productive habitat or a rental asset. Because the enlargement mechanisms are linked to the morphology, it was discovered that the use it's not related to the location, and that the adaptation strategies of the houses are linked to constructive systems or management processes linked to a particular area. This way the combination of mechanisms and strategies characterizes the process of housing evolution, linking it to certain social and geographic peculiarities and therefore constructives. At last, through the certain combination of enlargement mechanisms and adaptability strategies in the housing with scheduled grownth project is possible to optimize its development in economic, constructive, social and spatial terms. As a result, this would help not only to improve the life of the seed house residents in qualitative and quantitative terms but also to compact the cities through inclusive systems, given that the growing houses provide a larger complexity of uses and social relations.
Resumo:
El presente trabajo, desarrollado en el marco del Convenio de Cooperación educativa entre la ETSII - UPM y el Ciemat, se realiza con el fin de determinar líneas futuras de investigación y/o aplicación de la tecnología de gasificación termoquímica de biomasa integrada a motores de combustión interna alternativos (MCIA) para generación de potencia, motivados por la necesidad de reducir las emisiones contaminantes, aumentar el uso de las fuentes renovables de energía, reducir la dependencia económica de los combustibles fósiles, aprovechar energéticamente infinidad de residuos del sector agroindustrial y por la necesidad de generar energía a base de combustibles autóctonos que permitan resolver los problemas de suministro eléctrico en zonas no interconectadas eléctricamente en países en vía de desarrollo. En el capítulo 1 se comienza por presentar los objetivos y la justificación del presente trabajo, se enmarca esta tecnología desde el punto de vista histórico, de los combustibles y de los gasógenos, que fue la primera aplicación extendida masivamente durante las dos guerras mundiales en Europa. Además se hace un breve recuento de los principales grupos de investigación y fabricantes a nivel comercial que actualmente trabajan en el desarrollo de esta tecnología. En el capítulo 2 se hacer una breve descripción del proceso de gasificación termoquímica, mostrando los diferentes tipos de gasificadores existentes, las propiedades del combustible primario usado y los factores que afectan la eficiencia de este proceso. En el capítulo 3 se estudia el gas de gasificación desde el punto de vista de la composición, propiedades como combustible motor, requisitos, tratamiento necesario para su uso como combustible en motores de combustión interna, otros usos del GG y riesgos que conlleva su utilización. En el capítulo 4 se presentan un estudio general de los motores de gas, donde se presenta una clasificación, se estudia la manera de regular la operación de estos motores, se hace una descripción cualitativa de la combustión, se muestran algunas aplicaciones y se estudia la combustión en los motores a gas desde el punto de vista de los factores que la afectan. En el capítulo 5 se entra en profundidad sobre el uso del gas de gasificación -GG en MCIA, inicialmente estudiado desde el punto de vista teórico, luego presentando los resultados de varias investigaciones realizadas y por último mostrando algunos de las aplicaciones comerciales actualmente en el mercado. Finalmente se presentan las conclusiones, la bibliografía consultada y un glosario de términos.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.
Resumo:
The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.
Resumo:
El ruido del tráfico rodado supone aproximadamente la mitad del ruido global ambiental. Las técnicas de control de ruido habitual en emisión (límites de emisión de vehículos) e inmisión (barreras acústicas, doble acristalamiento) no han sido suficientes para disminuir significativamente las molestias por el tráfico rodado en las últimas tres décadas. El efecto positivo de estas técnicas de control ha sido contrarrestado por el aumento de la densidad del tráfico. Por otra parte, la molestia del ruido del tráfico está altamente correlacionada con los niveles máximos de ruido (MNL), producidos por lo general por conductores agresivos. Sin embargo, los sistemas actuales de medición de ruido de tráfico se basan en una valoración global, por lo que no son capaces de discriminar entre los conductores silenciosos y ruidosos. Por lo tanto, en esta tesis se propone un sistema de medida de ruido en el campo cercano, que es capaz de medir la contribución de cada vehículo individual al ruido del tráfico rodado, permitiendo la detección de los conductores ruidosos. Este trabajo describe también una combinación de investigaciones analíticas y experimentales para la identificación de los conductores responsables de la generación de niveles máximos de ruido. El sistema se basa en dos micrófonos embarcados, uno para el ruido del motor y otro para el ruido de rodadura. Con el fin de relacionar estas mediciones de campo cercano con el ruido de los vehículos radiado al campo lejano, se desarrolla un procedimiento completo para la extrapolación del ruido medido por los micrófonos de campo próximo a las posiciones de campo lejano, usando una combinación de predicción analítica y mediciones experimentales. Las correcciones para los niveles extrapolados se deben a factores atmosféricos, al término de divergencia esférica y a las condiciones de absorción de la superficie de propagación. Para el micrófono situado próximo al motor, es necesario también caracterizar las propiedades acústicas del capó del motor. Ambos niveles de ruido se extrapolan de forma independiente a la posición de campo lejano, donde se realiza una comparación entre la predicción y mediciones para confirmar que la metodología es fiable para estimar el impacto a distancia del ruido de tráfico