18 resultados para Happening
em Universidad Politécnica de Madrid
Resumo:
Among the classical operators of mathematical physics the Laplacian plays an important role due to the number of different situations that can be modelled by it. Because of this a great effort has been made by mathematicians as well as by engineers to master its properties till the point that nearly everything has been said about them from a qualitative viewpoint. Quantitative results have also been obtained through the use of the new numerical techniques sustained by the computer. Finite element methods and boundary techniques have been successfully applied to engineering problems as can be seen in the technical literature (for instance [ l ] , [2], [3] . Boundary techniques are especially advantageous in those cases in which the main interest is concentrated on what is happening at the boundary. This situation is very usual in potential problems due to the properties of harmonic functions. In this paper we intend to show how a boundary condition different from the classical, but physically sound, is introduced without any violence in the discretization frame of the Boundary Integral Equation Method. The idea will be developed in the context of heat conduction in axisymmetric problems but it is hoped that its extension to other situations is straightforward. After the presentation of the method several examples will show the capabilities of modelling a physical problem.
Resumo:
En el presente proyecto se realiza un estudio para la construcción de una cabecera de televisión por cable. Se trata de un proyecto puramente teórico en el que se especifican cada una de las partes que forman una cabecera de televisión y cómo funciona cada una de ellas. En un principio, se sitúa la cabecera de televisión dentro de una plataforma general de transmisión, para indicar sus funciones. Posteriormente, se analizan las distintas tecnologías que implementan esta transmisión y los estándares DVB que las rigen, como son DVB-C y DVB-C2 para las transmisiones por cable propiamente dichas y DVB-IPTV para las transmisiones por IP, para elegir cuál de las opciones es la más acertada y adaptar la cabecera de televisión a la misma. En cuanto al desarrollo teórico de la cabecera, se estudia el proceso que sigue la señal dentro de la misma, desde la recepción de los canales hasta el envío de los mismos hacia los hogares de los distintos usuarios, pasando previamente por las etapas de codificación y multiplexación. Además, se especifican los equipos necesarios para el correcto funcionamiento de cada una de las etapas. En la recepción, se reciben los canales por cada uno de los medios posibles (satélite, cable, TDT y estudio), que son demodulados y decodificados por el receptor. A continuación, son codificados (en este proyecto en MPEG-2 o H.264) para posteriormente ser multiplexados. En la etapa de multiplexación, se forma una trama Transport Stream por cada canal, compuesta por su flujo de video, audio y datos. Estos datos se trata de una serie de tablas (SI y PSI) que guían al set-topbox del usuario en la decodificación de los programas (tablas PSI) y que proporcionan información de cada uno de los mismos y del sistema (tablas SI). Con estas últimas el decodificador forma la EPG. Posteriormente, se realiza una segunda multiplexación, de forma que se incluyen múltiples programas en una sola trama Transport Stream (MPTS). Estos MPTS son los flujos que les son enviados a cada uno de los usuarios. El mecanismo de transmisión es de dos tipos en función del contenido y los destinatarios: multicast o unicast. Por último, se especifica el funcionamiento básico de un sistema de acceso condicional, así como su estructura, el cual es imprescindible en todas las cabeceras para asegurar que cada usuario solo visualiza los contenidos contratados. In this project, a study is realized for the cable television head-end construction . It is a theoretical project in which there are specified each of the parts that form a television headend and how their works each of them. At first, the television head-end places inside a general platform of transmission, to indicate its functions. Later, the different technologies that implement this transmission and the standards DVB that govern them are analyzed, since the standards that govern the cable transmissions (DVB-C and DVB-C2) to the standard that govern the IP transmissions (DVB-IPTV), to choose which of the options is the most guessed right and to adapt the television head-end to the same one. The theoretical development of the head-end, there is studied the process that follows the sign inside the same one, from the receipt of the channels up to the sending of the same ones towards the homes of the different users, happening before for the stages of codification and multiplexación. In addition, there are specified the equipments necessary for the correct functioning of each one of the stages. In the reception, the channels are receiving for each of the possible systems(satellite, cable, TDT and study), and they are demodulated and decoded by the receiver. Later, they are codified (in this project in MPEG-2 or H.264). The next stage is the stage of multiplexing. In the multiplexing stage, the channels are packetized in Transport Stream, composed by his video flow, audio and information. The information are composed by many tables(SI and PSI). The PSI tables guide the set-top-box of the user in the programs decoding and the SI tables provide information about the programs and system. With the information mentioned the decoder forms the EPG. Later, a second multiplexación is realized, so that there includes multiple programs in an alone Transport Stream (MPTS). These MPTS are the flows that are sent to each of the users. Two types of transmission are possible: unicast (VoD channels) and multicast (live channels). Finally, the basic functioning of a conditional access system is specified and his structure too, which is indispensable in all the head-end to assure that every users visualizes the contracted contents only.
Resumo:
The twentieth century brought a new sensibility characterized by the discredit of cartesian rationality and the weakening of universal truths, related with aesthetic values as order, proportion and harmony. In the middle of the century, theorists such as Theodor Adorno, Rudolf Arnheim and Anton Ehrenzweig warned about the transformation developed by the artistic field. Contemporary aesthetics seemed to have a new goal: to deny the idea of art as an organized, finished and coherent structure. The order had lost its privileged position. Disorder, probability, arbitrariness, accidentality, randomness, chaos, fragmentation, indeterminacy... Gradually new terms were coined by aesthetic criticism to explain what had been happening since the beginning of the century. The first essays on the matter sought to provide new interpretative models based on, among other arguments, the phenomenology of perception, the recent discoveries of quantum mechanics, the deeper layers of the psyche or the information theories. Overall, were worthy attempts to give theoretical content to a situation as obvious as devoid of founding charter. Finally, in 1962, Umberto Eco brought together all this efforts by proposing a single theoretical frame in his book Opera Aperta. According to his point of view, all of the aesthetic production of twentieth century had a characteristic in common: its capacity to express multiplicity. For this reason, he considered that the nature of contemporary art was, above all, ambiguous. The aim of this research is to clarify the consequences of the incorporation of ambiguity in architectural theoretical discourse. We should start making an accurate analysis of this concept. However, this task is quite difficult because ambiguity does not allow itself to be clearly defined. This concept has the disadvantage that its signifier is as imprecise as its signified. In addition, the negative connotations that ambiguity still has outside the aesthetic field, stigmatizes this term and makes its use problematic. Another problem of ambiguity is that the contemporary subject is able to locate it in all situations. This means that in addition to distinguish ambiguity in contemporary productions, so does in works belonging to remote ages and styles. For that reason, it could be said that everything is ambiguous. And that’s correct, because somehow ambiguity is present in any creation of the imperfect human being. However, as Eco, Arnheim and Ehrenzweig pointed out, there are two major differences between current and past contexts. One affects the subject and the other the object. First, it’s the contemporary subject, and no other, who has acquired the ability to value and assimilate ambiguity. Secondly, ambiguity was an unexpected aesthetic result in former periods, while in contemporary object it has been codified and is deliberately present. In any case, as Eco did, we consider appropriate the use of the term ambiguity to refer to the contemporary aesthetic field. Any other term with more specific meaning would only show partial and limited aspects of a situation quite complex and difficult to diagnose. Opposed to what normally might be expected, in this case ambiguity is the term that fits better due to its particular lack of specificity. In fact, this lack of specificity is what allows to assign a dynamic condition to the idea of ambiguity that in other terms would hardly be operative. Thus, instead of trying to define the idea of ambiguity, we will analyze how it has evolved and its consequences in architectural discipline. Instead of trying to define what it is, we will examine what its presence has supposed in each moment. We will deal with ambiguity as a constant presence that has always been latent in architectural production but whose nature has been modified over time. Eco, in the mid-twentieth century, discerned between classical ambiguity and contemporary ambiguity. Currently, half a century later, the challenge is to discern whether the idea of ambiguity has remained unchanged or have suffered a new transformation. What this research will demonstrate is that it’s possible to detect a new transformation that has much to do with the cultural and aesthetic context of last decades: the transition from modernism to postmodernism. This assumption leads us to establish two different levels of contemporary ambiguity: each one related to one these periods. The first level of ambiguity is widely well-known since many years. Its main characteristics are a codified multiplicity, an interpretative freedom and an active subject who gives conclusion to an object that is incomplete or indefinite. This level of ambiguity is related to the idea of indeterminacy, concept successfully introduced into contemporary aesthetic language. The second level of ambiguity has been almost unnoticed for architectural criticism, although it has been identified and studied in other theoretical disciplines. Much of the work of Fredric Jameson and François Lyotard shows reasonable evidences that the aesthetic production of postmodernism has transcended modern ambiguity to reach a new level in which, despite of the existence of multiplicity, the interpretative freedom and the active subject have been questioned, and at last denied. In this period ambiguity seems to have reached a new level in which it’s no longer possible to obtain a conclusive and complete interpretation of the object because it has became an unreadable device. The postmodern production offers a kind of inaccessible multiplicity and its nature is deeply contradictory. This hypothetical transformation of the idea of ambiguity has an outstanding analogy with that shown in the poetic analysis made by William Empson, published in 1936 in his Seven Types of Ambiguity. Empson established different levels of ambiguity and classified them according to their poetic effect. This layout had an ascendant logic towards incoherence. In seventh level, where ambiguity is higher, he located the contradiction between irreconcilable opposites. It could be said that contradiction, once it undermines the coherence of the object, was the better way that contemporary aesthetics found to confirm the Hegelian judgment, according to which art would ultimately reject its capacity to express truth. Much of the transformation of architecture throughout last century is related to the active involvement of ambiguity in its theoretical discourse. In modern architecture ambiguity is present afterwards, in its critical review made by theoreticians like Colin Rowe, Manfredo Tafuri and Bruno Zevi. The publication of several studies about Mannerism in the forties and fifties rescued certain virtues of an historical style that had been undervalued due to its deviation from Renacentist canon. Rowe, Tafuri and Zevi, among others, pointed out the similarities between Mannerism and certain qualities of modern architecture, both devoted to break previous dogmas. The recovery of Mannerism allowed joining ambiguity and modernity for first time in the same sentence. In postmodernism, on the other hand, ambiguity is present ex-professo, developing a prominent role in the theoretical discourse of this period. The distance between its analytical identification and its operational use quickly disappeared because of structuralism, an analytical methodology with the aspiration of becoming a modus operandi. Under its influence, architecture began to be identified and studied as a language. Thus, postmodern theoretical project discerned between the components of architectural language and developed them separately. Consequently, there is not only one, but three projects related to postmodern contradiction: semantic project, syntactic project and pragmatic project. Leading these projects are those prominent architects whose work manifested an especial interest in exploring and developing the potential of the use of contradiction in architecture. Thus, Robert Venturi, Peter Eisenman and Rem Koolhaas were who established the main features through which architecture developed the dialectics of ambiguity, in its last and extreme level, as a theoretical project in each component of architectural language. Robert Venturi developed a new interpretation of architecture based on its semantic component, Peter Eisenman did the same with its syntactic component, and also did Rem Koolhaas with its pragmatic component. With this approach this research aims to establish a new reflection on the architectural transformation from modernity to postmodernity. Also, it can serve to light certain aspects still unaware that have shaped the architectural heritage of past decades, consequence of a fruitful relationship between architecture and ambiguity and its provocative consummation in a contradictio in terminis. Esta investigación centra su atención fundamentalmente sobre las repercusiones de la incorporación de la ambigüedad en forma de contradicción en el discurso arquitectónico postmoderno, a través de cada uno de sus tres proyectos teóricos. Está estructurada, por tanto, en torno a un capítulo principal titulado Dialéctica de la ambigüedad como proyecto teórico postmoderno, que se desglosa en tres, de títulos: Proyecto semántico. Robert Venturi; Proyecto sintáctico. Peter Eisenman; y Proyecto pragmático. Rem Koolhaas. El capítulo central se complementa con otros dos situados al inicio. El primero, titulado Dialéctica de la ambigüedad contemporánea. Una aproximación realiza un análisis cronológico de la evolución que ha experimentado la idea de la ambigüedad en la teoría estética del siglo XX, sin entrar aún en cuestiones arquitectónicas. El segundo, titulado Dialéctica de la ambigüedad como crítica del proyecto moderno se ocupa de examinar la paulatina incorporación de la ambigüedad en la revisión crítica de la modernidad, que sería de vital importancia para posibilitar su posterior introducción operativa en la postmodernidad. Un último capítulo, situado al final del texto, propone una serie de Proyecciones que, a tenor de lo analizado en los capítulos anteriores, tratan de establecer una relectura del contexto arquitectónico actual y su evolución posible, considerando, en todo momento, que la reflexión en torno a la ambigüedad todavía hoy permite vislumbrar nuevos horizontes discursivos. Cada doble página de la Tesis sintetiza la estructura tripartita del capítulo central y, a grandes rasgos, la principal herramienta metodológica utilizada en la investigación. De este modo, la triple vertiente semántica, sintáctica y pragmática con que se ha identificado al proyecto teórico postmoderno se reproduce aquí en una distribución específica de imágenes, notas a pie de página y cuerpo principal del texto. En la columna de la izquierda están colocadas las imágenes que acompañan al texto principal. Su distribución atiende a criterios estéticos y compositivos, cualificando, en la medida de lo posible, su condición semántica. A continuación, a su derecha, están colocadas las notas a pie de página. Su disposición es en columna y cada nota está colocada a la misma altura que su correspondiente llamada en el texto principal. Su distribución reglada, su valor como notación y su posible equiparación con una estructura profunda aluden a su condición sintáctica. Finalmente, el cuerpo principal del texto ocupa por completo la mitad derecha de cada doble página. Concebido como un relato continuo, sin apenas interrupciones, su papel como responsable de satisfacer las demandas discursivas que plantea una investigación doctoral está en correspondencia con su condición pragmática.
Resumo:
Las aplicaciones de la teledetección al seguimiento de lo que ocurre en la superficie terrestre se han ido multiplicando y afinando con el lanzamiento de nuevos sensores por parte de las diferentes agencias espaciales. La necesidad de tener información actualizada cada poco tiempo y espacialmente homogénea, ha provocado el desarrollo de nuevos programas como el Earth Observing System (EOS) de la National Aeronautics and Space Administration (NASA). Uno de los sensores que incorpora el buque insignia de ese programa, el satélite TERRA, es el Multi-angle Imaging SpectroRadiometer (MISR), diseñado para capturar información multiangular de la superficie terrestre. Ya desde los años 1970, se conocía que la reflectancia de las diversas ocupaciones y usos del suelo variaba en función del ángulo de observación y de iluminación, es decir, que eran anisotrópicas. Tal variación estaba además relacionada con la estructura tridimensional de tales ocupaciones, por lo que se podía aprovechar tal relación para obtener información de esa estructura, más allá de la que pudiera proporcionar la información meramente espectral. El sensor MISR incorpora 9 cámaras a diferentes ángulos para capturar 9 imágenes casi simultáneas del mismo punto, lo que permite estimar con relativa fiabilidad la respuesta anisotrópica de la superficie terrestre. Varios trabajos han demostrado que se pueden estimar variables relacionadas con la estructura de la vegetación con la información que proporciona MISR. En esta Tesis se ha realizado una primera aplicación a la Península Ibérica, para comprobar su utilidad a la hora de estimar variables de interés forestal. En un primer paso se ha analizado la variabilidad temporal que se produce en los datos, debido a los cambios en la geometría de captación, es decir, debido a la posición relativa de sensores y fuente de iluminación, que en este caso es el Sol. Se ha comprobado cómo la anisotropía es mayor desde finales de otoño hasta principios de primavera debido a que la posición del Sol es más cercana al plano de los sensores. También se ha comprobado que los valores máximo y mínimo se van desplazando temporalmente entre el centro y el extremo angular. En la caracterización multiangular de ocupaciones del suelo de CORINE Land Cover que se ha realizado, se puede observar cómo la forma predominante en las imágenes con el Sol más alto es convexa con un máximo en la cámara más cercana a la fuente de iluminación. Sin embargo, cuando el Sol se encuentra mucho más bajo, ese máximo es muy externo. Por otra parte, los datos obtenidos en verano son mucho más variables para cada ocupación que los de noviembre, posiblemente debido al aumento proporcional de las zonas en sombra. Para comprobar si la información multiangular tiene algún efecto en la obtención de imágenes clasificadas según ocupación y usos del suelo, se han realizado una serie de clasificaciones variando la información utilizada, desde sólo multiespectral, a multiangular y multiespectral. Los resultados muestran que, mientras para las clasificaciones más genéricas la información multiangular proporciona los peores resultados, a medida que se amplían el número de clases a obtener tal información mejora a lo obtenido únicamente con información multiespectral. Por otra parte, se ha realizado una estimación de variables cuantitativas como la fracción de cabida cubierta (Fcc) y la altura de la vegetación a partir de información proporcionada por MISR a diferentes resoluciones. En el valle de Alcudia (Ciudad Real) se ha estimado la fracción de cabida cubierta del arbolado para un píxel de 275 m utilizando redes neuronales. Los resultados muestran que utilizar información multiespectral y multiangular puede mejorar casi un 20% las estimaciones realizadas sólo con datos multiespectrales. Además, las relaciones obtenidas llegan al 0,7 de R con errores inferiores a un 10% en Fcc, siendo éstos mucho mejores que los obtenidos con el producto elaborado a partir de datos multiespectrales del sensor Moderate Resolution Imaging Spectroradiometer (MODIS), también a bordo de Terra, para la misma variable. Por último, se ha estimado la fracción de cabida cubierta y la altura efectiva de la vegetación para 700.000 ha de la provincia de Murcia, con una resolución de 1.100 m. Los resultados muestran la relación existente entre los datos espectrales y los multiangulares, obteniéndose coeficientes de Spearman del orden de 0,8 en el caso de la fracción de cabida cubierta de la vegetación, y de 0,4 en el caso de la altura efectiva. Las estimaciones de ambas variables con redes neuronales y diversas combinaciones de datos, arrojan resultados con R superiores a 0,85 para el caso del grado de cubierta vegetal, y 0,6 para la altura efectiva. Los parámetros multiangulares proporcionados en los productos elaborados con MISR a 1.100 m, no obtienen buenos resultados por sí mismos pero producen cierta mejora al incorporarlos a la información espectral. Los errores cuadráticos medios obtenidos son inferiores a 0,016 para la Fcc de la vegetación en tanto por uno, y 0,7 m para la altura efectiva de la misma. Regresiones geográficamente ponderadas muestran además que localmente se pueden obtener mejores resultados aún mejores, especialmente cuando hay una mayor variabilidad espacial de las variables estimadas. En resumen, la utilización de los datos proporcionados por MISR ofrece una prometedora vía de mejora de resultados en la media-baja resolución, tanto para la clasificación de imágenes como para la obtención de variables cuantitativas de la estructura de la vegetación. ABSTRACT Applications of remote sensing for monitoring what is happening on the land surface have been multiplied and refined with the launch of new sensors by different Space Agencies. The need of having up to date and spatially homogeneous data, has led to the development of new programs such as the Earth Observing System (EOS) of the National Aeronautics and Space Administration (NASA). One of the sensors incorporating the flagship of that program, the TERRA satellite, is Multi-angle Imaging Spectroradiometer (MISR), designed to capture the multi-angle information of the Earth's surface. Since the 1970s, it was known that the reflectance of various land covers and land uses varied depending on the viewing and ilumination angles, so they are anisotropic. Such variation was also related to the three dimensional structure of such covers, so that one could take advantage of such a relationship to obtain information from that structure, beyond which spectral information could provide. The MISR sensor incorporates 9 cameras at different angles to capture 9 almost simultaneous images of the same point, allowing relatively reliable estimates of the anisotropic response of the Earth's surface. Several studies have shown that we can estimate variables related to the vegetation structure with the information provided by this sensor, so this thesis has made an initial application to the Iberian Peninsula, to check their usefulness in estimating forest variables of interest. In a first step we analyzed the temporal variability that occurs in the data, due to the changes in the acquisition geometry, i.e. the relative position of sensor and light source, which in this case is the Sun. It has been found that the anisotropy is greater from late fall through early spring due to the Sun's position closer to the plane of the sensors. It was also found that the maximum and minimum values are displaced temporarily between the center and the ends. In characterizing CORINE Land Covers that has been done, one could see how the predominant form in the images with the highest sun is convex with a maximum in the camera closer to the light source. However, when the sun is much lower, the maximum is external. Moreover, the data obtained for each land cover are much more variable in summer that in November, possibly due to the proportional increase in shadow areas. To check whether the information has any effect on multi-angle imaging classification of land cover and land use, a series of classifications have been produced changing the data used, from only multispectrally, to multi-angle and multispectral. The results show that while for the most generic classifications multi-angle information is the worst, as there are extended the number of classes to obtain such information it improves the results. On the other hand, an estimate was made of quantitative variables such as canopy cover and vegetation height using information provided by MISR at different resolutions. In the valley of Alcudia (Ciudad Real), we estimated the canopy cover of trees for a pixel of 275 m by using neural networks. The results showed that using multispectral and multiangle information can improve by almost 20% the estimates that only used multispectral data. Furthermore, the relationships obtained reached an R coefficient of 0.7 with errors below 10% in canopy cover, which is much better result than the one obtained using data from the Moderate Resolution Imaging Spectroradiometer (MODIS), also onboard Terra, for the same variable. Finally we estimated the canopy cover and the effective height of the vegetation for 700,000 hectares in the province of Murcia, with a spatial resolution of 1,100 m. The results show a relationship between the spectral and the multi-angle data, and provide estimates of the canopy cover with a Spearman’s coefficient of 0.8 in the case of the vegetation canopy cover, and 0.4 in the case of the effective height. The estimates of both variables using neural networks and various combinations of data, yield results with an R coefficient greater than 0.85 for the case of the canopy cover, and 0.6 for the effective height. Multi-angle parameters provided in the products made from MISR at 1,100 m pixel size, did not produce good results from themselves but improved the results when included to the spectral information. The mean square errors were less than 0.016 for the canopy cover, and 0.7 m for the effective height. Geographically weighted regressions also showed that locally we can have even better results, especially when there is high spatial variability of estimated variables. In summary, the use of the data provided by MISR offers a promising way of improving remote sensing performance in the low-medium spatial resolution, both for image classification and for the estimation of quantitative variables of the vegetation structure.
Resumo:
El proyecto tiene por objeto establecer, en el marco de la Ley 31/1995, de 8 de noviembre, sobre prevención de riesgos laborales, y en su norma reglamentaria, el Real Decreto 1627/1997 de 24 de octubre, sobre disposiciones mínimas de seguridad y salud en las obras de construcción, la identificación y evaluación de riesgos de una planta industrial de molienda de clinker para fabricación de cemento, con objeto de determinar las medidas preventivas necesarias para garantizar las adecuadas condiciones de seguridad y salud de los trabajadores que intervengan en la construcción de la obra civil, y en los montajes eléctrico y mecánico. La metodología que se empleó para estimar los niveles de riesgo se basa en la conjunción de la probabilidad estimada y las consecuencias esperadas. Los resultados obtenidos a partir de los niveles de riesgo identificados demostraron que mediante la mejora de los controles existentes y la implantación de nuevas medidas de control, priorizando de forma que éstas siempre sean proporcionales al riesgo identificado y valorado, es posible garantizar los adecuados niveles de seguridad y salud durante la ejecución de la obra. ABSTRACT The main objective of this project is, in the frame of the Law 31/1995 of November 8th about prevention of labor risks and in its regulation norm, Royal Decree 1627/1997 of October 24th, about minimum dispositions of safety and health in the works of construction, the identification and evaluation of the risks involved in an industrial plant of grinding of clinker for cement manufacture in order to determine the preventive necessary measures to ensure the suitable conditions of safety and health of the workers who take part of civil works, and of electrical and mechanical erections. The methodology chosen to estimate the risk levels is based on the probability of happening together with the awaited consequences. The results obtained from the levels of risk identified demonstrated that by means of the improvement of the existing controls and the implementation of new control measures, determining priorities always proportionally to the identified and valued risk, it is possible to guarantee the suitable levels of safety and health during the execution of the works.
Resumo:
En este Proyecto de fin de carrera titulado: LA VÍDEOVIGILANCIA: TECNOLOGÍAS ACTUALES Y ASPECTOS SOCIOPOLÍTICOS, tiene como objetivo hacer un estudio en los sistemas de Vídeovigilancia basado en cámaras-IP, con fines de seguridad, control o supervisión. Nos basaremos en exponer los sistemas Vídeovigilancia basados en cámara-IP actuales de ultima generación, cuya principal virtud de estos sistemas, es la comunicación con otros lugares, o espacios públicos como privados y poder visualizar tanto en vivo como en diferido lo que este pasando en ese lugar y en ese momento o haya pasado a través del protocolo de comunicación-IP. Se explicara desde el más básico al más complejo sistema de videovigilancia-IP, también explicaremos su puesta en practica mediante los múltiples interconexiones que estos conlleven. Llegando a este punto, se nos plantea las siguientes cuestiones que da origen a este PFC. Estos sistemas de Vídeovigilancia-IP, captan las imágenes por medio de las cámaras-IP, proporcionando su facilidad tanto de visionado/grabacion, como de control, ya que no es necesario estar presente e interactuando con otros sistemas digitales de diverso índole actuales, gracias al protocolo-IP. Estos sistemas-IP, tienen su puesta en práctica mediante las instalaciones requeridas ,estas podrán ser sencillas o muy complejas de todos los sistemas-IP. Debido al gran aumento masivo, las tecnologías actuales de diverso índole de cámaras-IP en materia de la vídeovigilancia en lugares públicos, y privados en nuestra sociedad actual, lo hace un medio particularmente invasivo y por ello resulta necesario tanto la concurrencia de condiciones que legitimen los tratamientos de datos de personas identificables, como la definición de los principios y garantías que deban aplicarse ya que estas, repercutirán sobre los derechos de las personas, lo que obligara a fijar ciertas garantías. Se nos plantea los casos en los que la captación y/o tratamiento de imágenes con fines de Vídeovigilancia que pertenezcan a personas identificadas o identificables, ha obligado a España, y según dispuesto por la Directiva 95/46/CE del Parlamento Europeo, a regularizar esta situación mediante la Ley Orgánica de Protección de Datos (LOPD) 15/1999 de 13 de diciembre, bajo los procedimientos del Estado español en materia sociopolítica, y dando vigor a esta ley, mediante la aprobación de la Instrucción 1/2006 de 8 de noviembre de 2006, cuyo máximo organismo es la Agencia española de Protección de Datos (AGPD). Una vez planteada la motivación y justificación del proyecto, se derivan unos objetivos a cumplir con la realización del mismo. Los objetivos del proyecto se pueden diferenciar en dos clases principalmente. Los objetivos principales y objetivos secundarios. Los objetivos principales de este PFC, nacen directamente de las necesidades planteadas originalmente en materia de Vídeovigilancia, tanto tecnológicamente basado en las cámaras-IP en la captación y/o tratamiento de imágenes, así como sociopolíticamente donde trataremos de describirlo mediante las indicaciones y criterios con casos prácticos y de cómo deben de aplicarse según la instrucción 1/2006 mediante la LOPD en materia de Vídeovigilancia, en cuanto a la protección de datos que puedan repercutir sobre el derecho de las personas. Por otra parte los objetivos secundarios, son la extensión del objetivo primario y son de orden cuantificador en este PFC, dando una explicación más exhaustiva del objetivo principal. ABSTRACT In this final year project, entitled: THE VIDEOSURVEILLANCE: CURRENT TECHNOLOGIES AND POLITICALSOCIALS ASPECTS, aims to make a study of video surveillance systems based on IP cameras, for security, control or supervision. We will rely on to expose the camera based video surveillance systems IP-current last generation, whose main virtue of these systems, is communication with other places, or public and private spaces and to view both live and time so this happening in that place and at that time or passed through-IP communication protocol. He explained from the most basic to the most complex-IP video surveillance system, also explain its implementation into practice through multiple interconnections that these entail. Arriving at this point, we face the following issues which gave rise to this PFC. These IP-video surveillance systems, captured images through IP-cameras, providing both ease of viewing / recording, as a control, since it is not necessary to be present and interacting with other digital systems such diverse today, thanks IP-protocol. These systems-IP, have their implementation through the facilities required, these can be simple or very complex all-IP video surveillance systems. Due to the large increase in mass, current technologies of different kinds of IP cameras for video surveillance in public places, and private in our society, it makes a particularly invasive and therefore attendance is necessary both conditions that legitimize data processing of identifiable people, as the definition of the principles and safeguards to be applied as these will impact on the rights of the people, which forced to set certain guarantees. We face those cases in which the uptake and / or image processing video surveillance purposes belonging to identified or identifiable, has forced Spain, and as required by Directive 95/46/EC of the European Parliament, to regularize this situation by the Organic Law on Data Protection (LOPD) 15/1999 of December 13, under the procedures of the Spanish State in sociopolitical, and giving effect to this Act, with the approval of the Instruction 1/2006 of 8 November 2006, the governing body is the Spanish Agency for Data Protection (AGPD). Once raised the motivation and justification for the project, resulting in meeting targets to achieve the same. Project objectives can be differentiated into two main classes, the main objectives and secondary objectives: The main objectives of this PFC, born directly from requirements originally raised for capturing both technologically imaging me and try to describe where sociopolitically, the details and criteria as case studies and should be applied according to the instruction 1 / 2006 by the LOPD on video surveillance system in terms of data protection that could impact on the right people. Moreover the secondary objectives are the extension of the primary and are of a quantifier in this PFC, giving a fuller explanation of the main objective.
Resumo:
La informática se está convirtiendo en la quinta utilidad (gas, agua, luz, teléfono) en parte debido al impacto de Cloud Computing en las mayorías de las organizaciones. Este uso de informática es usada por cada vez más tipos de sistemas, incluidos Sistemas Críticos. Esto tiene un impacto en la complejidad internad y la fiabilidad de los sistemas de la organización y los que se ofrecen a los clientes. Este trabajo investiga el uso de Cloud Computing por sistemas críticos, centrándose en las dependencias y especialmente en la fiabilidad de estos sistemas. Se han presentado algunos ejemplos de su uso, y aunque su utilización en sistemas críticos no está extendido, se presenta cual puede llegar a ser su impacto. El objetivo de este trabajo es primero definir un modelo que pueda representar de una forma cuantitativa las interdependencias en fiabilidad y interdependencia para las organizaciones que utilicen estos sistemas, y aplicar este modelo en un sistema crítico del campo de sanidad y mostrar sus resultados. Los conceptos de “macro-dependability” y “micro-dependability” son introducidos en el modelo para la definición de interdependencia y para analizar la fiabilidad de sistemas que dependen de otros sistemas. ABSTRACT With the increasing utilization of Internet services and cloud computing by most organizations (both private and public), it is clear that computing is becoming the 5th utility (along with water, electricity, telephony and gas). These technologies are used for almost all types of systems, and the number is increasing, including Critical Infrastructure systems. Even if Critical Infrastructure systems appear not to rely directly on cloud services, there may be hidden inter-dependencies. This is true even for private cloud computing, which seems more secure and reliable. The critical systems can began in some cases with a clear and simple design, but evolved as described by Egan to "rafted" networks. Because they are usually controlled by one or few organizations, even when they are complex systems, their dependencies can be understood. The organization oversees and manages changes. These CI systems have been affected by the introduction of new ICT models like global communications, PCs and the Internet. Even virtualization took more time to be adopted by Critical systems, due to their strategic nature, but once that these technologies have been proven in other areas, at the end they are adopted as well, for different reasons such as costs. A new technology model is happening now based on some previous technologies (virtualization, distributing and utility computing, web and software services) that are offered in new ways and is called cloud computing. The organizations are migrating more services to the cloud; this will have impact in their internal complexity and in the reliability of the systems they are offering to the organization itself and their clients. Not always this added complexity and associated risks to their reliability are seen. As well, when two or more CI systems are interacting, the risks of one can affect the rest, sharing the risks. This work investigates the use of cloud computing by critical systems, and is focused in the dependencies and reliability of these systems. Some examples are presented together with the associated risks. A framework is introduced for analysing the dependability and resilience of a system that relies on cloud services and how to improve them. As part of the framework, the concepts of micro and macro dependability are introduced to explain the internal and external dependability on services supplied by an external cloud. A pharmacovigilance model system has been used for framework validation.
Resumo:
El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.
Resumo:
Los procesos de creación contemporáneos desde la performance al happening pasando por la instalación o el vídeoarte son los idóneos en el marco de la enseñanza en secundaria y sobre todo en grupos de difícil desempeño y en circunstancias complejas, como las que aquí vamos a presentar. Nuestra propuesta es la defensa de una metodología más abierta y flexible en la enseñanza del Teatro en la actualidad, más cercana a propuestas artísticas contemporáneas. Aquí nos vamos a centrar en los inicios de un proyecto performativo, uno de los momentos más complejos y fascinantes de todo proceso escénico, artístico y didáctico.
Resumo:
In the last decade, multi-sensor data fusion has become a broadly demanded discipline to achieve advanced solutions that can be applied in many real world situations, either civil or military. In Defence,accurate detection of all target objects is fundamental to maintaining situational awareness, to locating threats in the battlefield and to identifying and protecting strategically own forces. Civil applications, such as traffic monitoring, have similar requirements in terms of object detection and reliable identification of incidents in order to ensure safety of road users. Thanks to the appropriate data fusion technique, we can give these systems the power to exploit automatically all relevant information from multiple sources to face for instance mission needs or assess daily supervision operations. This paper focuses on its application to active vehicle monitoring in a particular area of high density traffic, and how it is redirecting the research activities being carried out in the computer vision, signal processing and machine learning fields for improving the effectiveness of detection and tracking in ground surveillance scenarios in general. Specifically, our system proposes fusion of data at a feature level which is extracted from a video camera and a laser scanner. In addition, a stochastic-based tracking which introduces some particle filters into the model to deal with uncertainty due to occlusions and improve the previous detection output is presented in this paper. It has been shown that this computer vision tracker contributes to detect objects even under poor visual information. Finally, in the same way that humans are able to analyze both temporal and spatial relations among items in the scene to associate them a meaning, once the targets objects have been correctly detected and tracked, it is desired that machines can provide a trustworthy description of what is happening in the scene under surveillance. Accomplishing so ambitious task requires a machine learning-based hierarchic architecture able to extract and analyse behaviours at different abstraction levels. A real experimental testbed has been implemented for the evaluation of the proposed modular system. Such scenario is a closed circuit where real traffic situations can be simulated. First results have shown the strength of the proposed system.
Resumo:
The proposal highlights certain design strategies and a case study that can link the material urban space to digital emerging realms. The composite nature of urban spaces ?material/ digital- is understood as an opportunity to reconfigure public urban spaces without high-cost, difficult to apply interventions and, furthermore, to reactivate them by inserting dynamic, interactive and playful conditions that engage people and re-establish their relations to the cities. The structuring of coexisting and interconnected material and digital aspects in public urban spaces is proposed through the implementation of hybridization processes. Hybrid spaces can fascinate and provoke the public and especially younger people to get involved and interact with physical aspects of urban public spaces as well as digital representations or interpretations of those. Digital game?s design in urban public spaces can be comprehended as a tool that allows architects to understand and to configure hybrids of material and digital conceptions and project all in one, as an inseparable totality. Digital technologies have for a long time now intervened in our perception of traditional dipoles such as subject - environment. Architects, especially in the past, have been responsible for material mediations and tangible interfaces that permit subjects to relate to their physical environments in a controlled and regulated manner; but, nowadays, architects are compelled to embody in design, the transition that is happening in all aspects of everyday life, that is, from material to digital realities. In addition, the disjunctive relation of material and digital realms is ceding and architects are now faced with the challenge that supposes the merging of both in a single, all-inclusive reality. The case study is a design project for a game implemented simultaneously in a specific urban space and on the internet. This project developed as the spring semester course New Media in Architecture at the Department of Architecture, Democritus University of Thrace, Greece is situated at the city of Xanthi. Composite cities can use design strategies and technological tools to configure augmented and appealing urban spaces that articulate and connect different realms in a single engaging reality.
Resumo:
Uno de los mayores retos para la comunidad científica es conseguir que las máquinas posean en un futuro la capacidad del sistema visual y cognitivo humanos, de forma que, por ejemplo, en entornos de video vigilancia, puedan llegar a proporcionar de manera automática una descripción fiable de lo que está ocurriendo en la escena. En la presente tesis, mediante la propuesta de un marco de trabajo de referencia, se discuten y plantean los pasos necesarios para el desarrollo de sistemas más inteligentes capaces de extraer y analizar, a diferentes niveles de abstracción y mediante distintos módulos de procesamiento independientes, la información necesaria para comprender qué está sucediendo en un conjunto amplio de escenarios de distinta naturaleza. Se parte de un análisis de requisitos y se identifican los retos para este tipo de sistemas en la actualidad, lo que constituye en sí mismo los objetivos de esta tesis, contribuyendo así a un modelo de datos basado en el conocimiento que permitirá analizar distintas situaciones en las que personas y vehículos son los actores principales, dejando no obstante la puerta abierta a la adaptación a otros dominios. Así mismo, se estudian los distintos procesos que se pueden lanzar a nivel interno así como la necesidad de integrar mecanismos de realimentación a distintos niveles que permitan al sistema adaptarse mejor a cambios en el entorno. Como resultado, se propone un marco de referencia jerárquico que integra las capacidades de percepción, interpretación y aprendizaje para superar los retos identificados en este ámbito; y así poder desarrollar sistemas de vigilancia más robustos, flexibles e inteligentes, capaces de operar en una variedad de entornos. Resultados experimentales ejecutados sobre distintas muestras de datos (secuencias de vídeo principalmente) demuestran la efectividad del marco de trabajo propuesto respecto a otros propuestos en el pasado. Un primer caso de estudio, permite demostrar la creación de un sistema de monitorización de entornos de parking en exteriores para la detección de vehículos y el análisis de plazas libres de aparcamiento. Un segundo caso de estudio, permite demostrar la flexibilidad del marco de referencia propuesto para adaptarse a los requisitos de un entorno de vigilancia completamente distinto, como es un hogar inteligente donde el análisis automático de actividades de la vida cotidiana centra la atención del estudio. ABSTRACT One of the most ambitious objectives for the Computer Vision and Pattern Recognition research community is that machines can achieve similar capacities to the human's visual and cognitive system, and thus provide a trustworthy description of what is happening in the scene under surveillance. Thus, a number of well-established scenario understanding architectural frameworks to develop applications working on a variety of environments can be found in the literature. In this Thesis, a highly descriptive methodology for the development of scene understanding applications is presented. It consists of a set of formal guidelines to let machines extract and analyse, at different levels of abstraction and by means of independent processing modules that interact with each other, the necessary information to understand a broad set of different real World surveillance scenarios. Taking into account the challenges that working at both low and high levels offer, we contribute with a highly descriptive knowledge-based data model for the analysis of different situations in which people and vehicles are the main actors, leaving the door open for the development of interesting applications in diverse smart domains. Recommendations to let systems achieve high-level behaviour understanding will be also provided. Furthermore, feedback mechanisms are proposed to be integrated in order to let any system to understand better the environment and the logical context around, reducing thus the uncertainty and noise, and increasing its robustness and precision in front of low-level or high-level errors. As a result, a hierarchical cognitive architecture of reference which integrates the necessary perception, interpretation, attention and learning capabilities to overcome main challenges identified in this area of research is proposed; thus allowing to develop more robust, flexible and smart surveillance systems to cope with the different requirements of a variety of environments. Once crucial issues that should be treated explicitly in the design of this kind of systems have been formulated and discussed, experimental results shows the effectiveness of the proposed framework compared with other proposed in the past. Two case studies were implemented to test the capabilities of the framework. The first case study presents how the proposed framework can be used to create intelligent parking monitoring systems. The second case study demonstrates the flexibility of the system to cope with the requirements of a completely different environment, a smart home where activities of daily living are performed. Finally, general conclusions and future work lines to further enhancing the capabilities of the proposed framework are presented.
Resumo:
La propuesta del análisis de la figura de Parque Agrario en el ámbito español surge ante la constatación de que un nuevo paradigma está aconteciendo a escala estatal. Diversos focos se encuentran trabajando en paralelo, y de forma participada, en pos de la reformulación de las políticas públicas relacionadas con la agricultura periurbana. Estos focos ven en la figura de Parque Agrario un instrumento territorial que permite mejorar la sostenibilidad y cohesión territorial a través de la defensa de la gobernanza alimentaria local, sin olvidar la necesidad de conservación de los recursos naturales y el patrimonio paisajístico, junto a la prestación de múltiples servicios de los ecosistemas de estos ámbitos a la ciudadanía. Complementariamente, se empieza a vislumbrar el papel que esta figura puede desempeñar como herramienta de desarrollo territorial de los sistemas agrarios periurbanos, clave ante los efectos de carácter local que la globalización ejerce en estos territorios. La figura de Parque Agrario es una estructura que actúa bloqueando la base territorial, favoreciendo el desarrollo de la actividad agraria. Su mayor potencial es el de convertir el factor “proximidad urbana” de una amenaza a una oportunidad de desarrollo local endógeno que permita la continuidad de la agricultura, de los agricultores y del espacio agrario. La peculiaridad del Parque Agrario es que no es una figura al uso, estructurada y reglada por una legislación, sino que se trata de una iniciativa ad hoc, específica para cada caso, orientada a cumplir determinados objetivos de dinamización agraria, protección urbanística y valorización territorial. A pesar de la existencia de diversas definiciones y aportaciones sobre diferentes aspectos de la figura, no existe un análisis complejo de la misma en todas sus dimensiones, ni una tentativa de descripción de un modelo global y unitario del caso español y de sus potenciales resultados. Tampoco se han analizado en profundidad sus “invariantes” que se muestran como los elementos estructurantes del proyecto, capaces desarrollarse de forma diversa, de alcanzar diferentes niveles de complejidad, y de materializarse en función a las posibilidades que permita el marco normativo y legal. Por tanto, se plantea como objetivo principal de la tesis la definición de un modelo conceptual de Parque Agrario español, capaz de ser articulado e institucionalizado mediante un proceso de gobernanza, y que, como condición sine qua non sea duradero en el tiempo. Para poder llegar a describir un modelo colectivo se realiza, en primer lugar, un análisis genealógico que permita analizar sistemáticamente las propuestas desarrolladas en el ámbito español y los casos para establecer la existencia de una continuidad en la idea de Parque Agrario en las propuestas desarrolladas durante los últimos 25 años—sus invariantes—, y analice todos aquellos elementos que han ido enriqueciendo la figura en cada experiencia —sus variantes. Este análisis, además, ofrece como aportaciones el árbol genealógico y los mapas de dispersión de la figura y el primer catálogo de propuestas de Parque Agrario materializadas en proyecto. El resultado de la inducción de los datos obtenidos en el análisis genealógico es el modelo conceptual de Parque Agrario, que se define como una estructura orgánica de planificación-gestión-gobierno del territorio capaz de adaptarse a las necesidades específicas de todo sistema agrario periurbano que requiera la articulación-institucionalización de esta figura en él. Una vez descrito el modelo, se contrasta su fiabilidad mediante su aplicación como metodología de caracterización y evaluación de dos estudios de casos: uno exitoso, el Parque Agrario del Baix Llobregat, y uno frustrado, la propuesta de Parque Agrario de la Vega de Granada. ------------------------------------------------------ ABSTRACT -------------------------------------------------------------------- The proposed analysis of the figure of Agrarian Park in the Spanish sphere arises from the awareness that a new paradigm is happening at the state level. Different focuses are working in parallel, under participated programs, after the reformulation of public policies related to urban agriculture. These areas understand the figure of Agrarian Park as a territorial instrument for improving sustainability and territorial cohesion through the defense of local food governance, considering the need for conservation of natural resources and landscape heritage together with the multiple ecosystem services provided by these areas to the public. Additionally, the role that this figure can play as a tool for territorial development of peri-urban agrarian systems, which are key to the local effects that globalization has on these territories, is staring to be envisioned. The figure of Agrarian Park is a structure that works by blocking the territorial base to encourage the development of agrarian activity. Its greatest potential is to convert the threat of "urban proximity" into an opportunity for an endogenous local development that allows the persistence of agriculture, farmers and the agrarian space. The uniqueness of the Agrarian Park is that it is not a standard figure, structured and regulated by legislation, but rather an ad hoc initiative, specific to each case, designed to meet certain objectives of agrarian revitalization, urban protection and territorial enhance. Despite the existence of several definitions and contributions on different aspects of the figure, there is a lack of a complex analysis of it in all its dimensions, missing any attempt to describe a global and unitary model of the Spanish case and its potential outcomes. Its "invariants” have neither been evaluated in depth, shown as the structural elements of the project able to be developed in different ways, to achieve numerous levels of complexity, and to be materialized according to the possibilities allowed by the regulatory and legal framework. Therefore, the definition of a conceptual model of Spanish Agrarian Park able to be articulated and institutionalized through a process of governance, and durable over time as a sine qua non requisite, it is proposed as the main aim of the thesis. To get to describe a collective model, a genealogical analysis that systematically analyzes the proposals and cases developed in the Spanish field is undertaken to verify the existence of a continuity of the idea of Agrarian Park on the proposals developed during the past 25 years -invariants-, and evaluate all the elements that have enriched this figure in each experience - variants. This analysis also provides as inputs a family tree, maps of dispersion of the figure and the first catalog of Agrarian Park proposals materialized into projects. The result of inducting the data obtained in the genealogical analysis is the Conceptual Model of Agrarian Park, defined as an organic planning-management-government structure of the territory able to adapt to the specific needs of all peri-urban agrarian systems that require the articulation-institutionalization of this figure in it. Having described the model, its reliability is tested by applying it as a methodology for characterization and evaluation of two case studies, one successful, the Baix Llobregat Agrarian Park, and one frustrated, the proposed Agrarian Park de la Vega of Granada.
Resumo:
La presente tesis revisa y analiza algunos aspectos fundamentales relativos al comportamiento de los sensores basados en resonadores piezoeléctricos TSM (Thickness Shear Mode), así como la aplicación de los mismos al estudio y caracterización de dos medios viscoelásticos de gran interés: los fluidos magnetoreológicos y los biofilms microbianos. El funcionamiento de estos sensores está basado en la medida de sus propiedades resonantes, las cuales varían al entrar en contacto con el material que se quiere analizar. Se ha realizado un análisis multifrecuencial, trabajando en varios modos de resonancia del transductor, en algunas aplicaciones incluso de forma simultánea (excitación pulsada). Se han revisado fenómenos como la presencia de microcontactos en la superficie del sensor y la resonancia de capas viscoelásticas de espesor finito, que pueden afectar a los sensores de cuarzo de manera contraria a lo que predice la teoría convencional (Sauerbrey y Kanazawa), pudiéndonos llevar a incrementos positivos de la frecuencia de resonancia. Además, se ha estudiado el efecto de una deposición no uniforme sobre el resonador piezoeléctrico. Para ello se han medido deposiciones de poliuretano, modelándose la respuesta del resonador con estas deposiciones mediante FEM. El modelo numérico permite estudiar el comportamiento del resonador al modificar distintas variables geométricas (espesor, superficie, no uniformidad y zona de deposición) de la capa depositada. Se ha demostrado que para espesores de entre un cuarto y media longitud de onda aproximadamente, una capa viscoelástica no uniforme sobre la superficie del sensor, amplifica el incremento positivo del desplazamiento de la frecuencia de resonancia en relación con una capa uniforme. Se ha analizado también el patrón geométrico de la sensibilidad del sensor, siendo también no uniforme sobre su superficie. Se han aplicado sensores TSM para estudiar los cambios viscoelásticos que se producen en varios fluidos magneto-reológicos (FMR) al aplicarles distintos esfuerzos de cizalla controlados por un reómetro. Se ha podido ver que existe una relación directa entre diversos parámetros reológicos obtenidos con el reómetro (fuerza normal, G’, G’’, velocidad de deformación, esfuerzo de cizalla…) y los parámetros acústicos, caracterizándose los FMR tanto en ausencia de campo magnético, como con campo magnético aplicado a distintas intensidades. Se han estudiado las ventajas que aporta esta técnica de medida sobre la técnica basada en un reómetro comercial, destacando que se consigue caracterizar con mayor detalle algunos aspectos relevantes del fluido como son la deposición de partículas (estabilidad del fluido), el proceso de ruptura de las estructuras formadas en los FMR tanto en presencia como en ausencia de campo magnético y la rigidez de los microcontactos que aparecen entre partículas y superficies. También se han utilizado sensores de cuarzo para monitorear en tiempo real la formación de biofilms de Staphylococcus epidermidis y Eschericia coli sobre los propios resonadores de cristal de cuarzo sin ningún tipo de recubrimiento, realizándose ensayos con cepas que presentan distinta capacidad de producir biofilm. Se mostró que, una vez que se ha producido una primera adhesión homogénea de las bacterias al sustrato, podemos considerar el biofilm como una capa semi-infinita, de la cual el sensor de cuarzo refleja las propiedades viscoelásticas de la región inmediatamente contigua al resonador, no siendo sensible a lo que sucede en estratos superiores del biofilm. Los experimentos han permitido caracterizar el módulo de rigidez complejo de los biofilms a varias frecuencias, mostrándose que el parámetro característico que indica la adhesión de un biofilm tanto en el caso de S. epidermidis como de E. coli, es el incremento de G’ (relacionado con la elasticidad o rigidez de la capa), el cual viene ligado a un incremento de la frecuencia de resonancia del sensor. ABSTRACT This thesis reviews and analyzes some key aspects of the behavior of sensors based on piezoelectric resonators TSM (Thickness Shear Mode) and their applications to the study and characterization in two viscoelastic media of great interest: magnetorheological fluids and microbial biofilms. The operation of these sensors is based on the analysis of their resonant properties that vary in contact with the material to be analyzed. We have made a multi-frequency analysis, working in several modes of resonance of the transducer, in some applications even simultaneously (by impulse excitation). We reviewed some phenomena as the presence of micro-contacts on the sensor surface and the resonance of viscoelastic layers of finite thickness, which can affect quartz sensors contrary to the conventional theory predictions (Sauerbrey and Kanazawa), leading to positive resonant frequency shifts. In addition, we studied the effect of non-uniform deposition on the piezoelectric resonator. Polyurethane stools have been measured, being the resonator response to these depositions modeled by FEM. The numerical model allows studying the behavior of the resonator when different geometric variables (thickness, surface non-uniformity and deposition zone) of the deposited layer are modified. It has been shown that for thicknesses between a quarter and a half of a wavelength approximately, non-uniform deposits on the sensor surface amplify the positive increase of the resonance frequency displacement compared to a uniform layer. The geometric pattern of the sensor sensitivity was also analyzed, being also non-uniform over its surface. TSM sensors have been applied to study the viscoelastic changes occurring in various magneto-rheological fluids (FMR) when subjected to different controlled shear stresses driven by a rheometer. It has been seen that there is a direct relationship between various rheological parameters obtained with the rheometer (normal force, G', G'', stress, shear rate ...) and the acoustic parameters, being the FMR characterized both in the absence of magnetic field, and when the magnetic field was applied at different intensities. We have studied the advantages of this technique over the characterization methods based on commercial rheometers, noting that TSM sensors are more sensitive to some relevant aspects of the fluid as the deposition of particles (fluid stability), the breaking process of the structures formed in the FMR both in the presence and absence of magnetic field, and the rigidity of the micro-contacts appearing between particles and surfaces. TSM sensors have also been used to monitor in real time the formation of biofilms of Staphylococcus epidermidis and Escherichia coli on the quartz crystal resonators themselves without any coating, performing tests with strains having different ability to produce biofilm. It was shown that, once a first homogeneous adhesion of bacteria was produced on the substrate, the biofilm can be considered as a semi-infinite layer and the quartz sensor reflects only the viscoelastic properties of the region immediately adjacent to the resonator, not being sensitive to what is happening in upper layers of the biofilm. The experiments allow the evaluation of the biofilm complex stiffness module at various frequencies, showing that the characteristic parameter that indicates the adhesion of a biofilm for the case of both S. epidermidis and E. coli, is an increased G' (related to the elasticity or stiffness of the layer), which is linked to an increase in the resonance frequency of the sensor.
Resumo:
En esta investigación se han analizado morteros de cal de cronología romana en el interior de la Península Ibérica. Para ello, se seleccionó una serie de muestras procedentes de diversos yacimientos, y de estructuras de carácter industrial. Estas muestras presentan aditivos cerámicos y conglomerantes de cal, como característica principal. Desde un principio el esfuerzo debía de centrarse en los fragmentos cerámicos presentes en los morteros. Para ello se documentaron varios morteros con aditivos cerámicos, a fin de conocer sus características básicas (componentes, distribución, micro-estratigrafía, granulometría, etc.). Por ello, y una vez tomadas las muestras, ésta fueron tratadas y procesadas para desarrollar una primera fase de estudio por medio de macroscopía. Se obtuvieron buenos resultados en cuanto a la caracterización visual de los morteros, localizando y documentando los fragmentos cerámicos. Durante la observación de dichos aditivos se observó que los fragmentos cerámicos tenían unas coronas o anillos de coloración que recorrían el borde, justo al contacto con la matriz de cal. Fueron seleccionados algunos fragmentos en los que eran más visibles dichos anillos. A fin de conocer la posible relación entre algunos yacimientos cercanos y la presencia de dicho anillo cromáticos se desarrolló una microscopía óptica polarizada, realizando láminas delgadas de las muestras y sobre los fragmentos cerámicos más determinantes, en concreto de una serie de enclaves del valle del Henares. Además de caracterizar microscópicamente los morteros, se observó que los anillos no eran un defecto visual ni una alteración física, producida tal vez por la extracción, la fase del corte o por la cocción de la cerámica. Tras analizar varios ejemplares se pudo apreciar que esos anillos eran habituales en todas las muestras y que se presentaban de diferente manera, es decir, que se observaban en granos cerámicos de diferentes características físicas (cochura, tamaño, situación con respecto del conglomerante, etc.). A fin de conocer los aspectos químicos de dicha alteración se seleccionó un grupo de muestras en las que los resultados macroscópicos habían sido muy claros, y en las que la microscopía óptica polarizada había determinado en los bordes, áreas adecuadas para otros análisis. Se realizó un mapeado o mapping de elementos químicos, a fin de saber qué podía estar sucediendo en esa interfaz entre el fragmento cerámico y la matriz de cal. Gracias a los resultados obtenidos se comprobó que existía una acumulación potencial de calcio tanto en el interior de los granos cerámicos como en el exterior, justo en la zona de contacto con el conglomerante, formando manchas que recorrían longitudinalmente el borde. Estos datos fueron muy útiles para llevar a cabo la siguiente fase de estudio, que permitiría conocer puntualmente qué estaba sucediendo químicamente en esa zona de contacto. Finalmente y con el objetivo de describir química y puntualmente este efecto en las adiciones cerámicas, se volvió a seleccionar una serie de muestras, escogidas esta vez en función de los granos cerámicos que cumpliesen unas variables estadísticas. Se eligieron granos con distintos tipos de cocciones, así como granos con tamaños diversos y granos con aditivo ceniciento en la matriz de cal, pensando que podrían ser las variables más útiles de interpretar de existir algún tipo de cambio químico entre la arcilla cocida y la matriz de cal. Tales variables se adaptaron a un sistema estadístico multi-varial y geométrico, con el objetivo de sintetizar los resultados y visualizar de forma óptima los datos en conjunto, como se ha comentado en varias ocasiones en este trabajo. Una vez seleccionados los granos por variables se procedió a realizar un análisis lineal y espectral semi-cuantitativo de SEM-EDX, con el que se caracterizaba químicamente una sección lineal del grano, desde la matriz de arcilla cocida de la cerámica hasta la matriz de cal –del interior al exterior del grano- pasando por el centro de la banda de reacción. Este análisis permitió determinar que se había producido una serie de cambios químicos porcentuales en los granos de cerámica. Dichos cambios se resumen en un incremento global de los porcentajes de calcio en el interior de las bandas de reacción de la cerámica, desde el borde mismo del anillo hasta el exterior. Así también se observaron picos porcentuales en el interfaz del fragmento cerámico con la matriz de cal, lo que confirmaba los resultados obtenidos por medio del mapping. Globalmente en todas las muestras se apreció un hombro en las gráficas de calcio a su paso por la zona de afección del anillo de reacción. Los restantes porcentajes de magnesio, silicio y aluminio se mantienen normales. En esta tesis se ha confirmado que dicho incremento global de calcio se acentúa en las muestras en donde no hay cenizas en la matriz de cal. Los casos correspondientes a estos granos sufren un incremento mayor que en el resto. La segunda variable que sufre un mayor incremento de calcio es la que corresponde a granos con buena cocción de la arcilla. Por lo tanto, parece que la tercera variable, la que corresponde con el tamaño del fragmento cerámico, no es decisiva. Por lo tanto, teniendo en cuenta la prueba visual de los anillos de reacción, y atendiendo a los resultados químicos, podríamos pensar que ese incremento de calcio en la banda de reacción de los fragmentos cerámicos se debió a una absorción de calcio en el interior de la arcilla cocida en la fase inmediatamente previa al fraguado, incluso durante el apagado de la cal. Es en este punto donde estaría la clave del cambio químico que se produce en esta interfaz, el calcio sílice-aluminato del que algunos autores ya han investigado. Esta absorción de calcio en el interior del grano no vendría sola, sino que generaría una costra de cal en el interfaz exterior de la cerámica, la cual ha sido observada químicamente por mapping y mineralógicamente por medio de microscopía óptica de polarización. La consecuencia de estos resultados es, primero, la mejora de nuestro conocimiento general acerca del factor hidráulico en los morteros. Asimismo se aprecia que la incorporación de materiales orgánicos como cenizas, puede alterar los porcentajes de calcio en el interior de los aditivos cerámicos, por lo que habría que sopesar, en trabajos futuros, si este tipo de material es adecuado o no en las mezclas destinadas a la restauración, así como seguir indagando en las propiedades de los morteros con la incorporación de aditivos orgánicos. Desde el punto de vista de la catalogación de los suelos industriales hidráulicos de época romana, además de mejorar la documentación incorporando micro-estratigrafías y granulometrías, la investigación de este material histórico constructivo mejora en cuanto a que se incorporan ensayos sencillos, que facilitan incluso la peritación de un estado de conservación por medio de una lupa binocular. Arqueológicamente hablando, es muy interesante correlacionar fábricas diferentes de estructuras situadas o bien en un mismo yacimiento, o bien en una misma área regional. Los estudios de caracterización y micro-estratigrafía no sólo aportan datos nuevos de cara a la restauración de morteros, sino que crean la posibilidad de generar patrones constructivos que sirvan de fósiles-guía para datar relativamente a unas estructuras o a otras. En lo referido a los resultados obtenidos en los diferentes complejos arqueológicos se ha observado una diferencia entre los morteros destinados a piletas y cubetas con respecto a los suelos industriales de uso indeterminado. La muestra correspondiente al yacimiento de Las Arenas no dispone de ninguna micro-estratigrafía, como sí por el contrario en las muestras obtenidas en Rotonda de Mejorada, Val de la Viña y La Magdalena. En estos enclaves las estructuras presentan grandes similitudes, con diferentes niveles constructivos empleando morteros de cal con áridos y gravas en las capas interiores, y áridos con adiciones cerámicas en las exteriores. En lo relativo a la granulometría las adiciones cerámicas de las muestras de Val de la Viña y La Magdalena presentan varias coincidencias en cuanto al tamaño de los granos y la distribución. Asimismo, de las muestras tomadas en La Magdalena, existe una gran diferencia entre las muestras MG1, MG2, MG3 y MG4 con respecto a las muestras MG5 y MG6, correspondientes éstas últimas a un mortero con fragmentos cerámicos de gran tamaño. Las estructuras EMG1 y EMG2, correspondientes a una cubeta y una pileta de La Magdalena, guardan similitud en lo referido a la micro-estratigrafía y a la granulometría. Se ha determinado que su función, así como su fabricación, debieron estar vinculadas a un mismo contexto cronocultural. Química y mineralógicamente, las muestras presentan características iguales, con presencia de un conglomerante de cal con áridos y aditivos cerámicos de diferentes cochuras. Destaca la muestra de Las Arenas, con un tamaño de los fragmentos cerámicos muy superior al resto, seguido de la estructura EMG3 de La Magdalena. Las muestras restantes de éste enclave, junto con las muestras recogidas en Val de la Viña y Rotonda de Mejorada presentan condiciones similares. En conclusión, los datos revelan que existían diferentes fábricas destinadas a distintas finalidades, y que las estructuras industriales empleaban aditivos cerámicos para la manipulación de productos con líquidos, de distintas densidades pero que requerían de cierto grado de hidraulicidad. ABSTRACT Lime Roman mortars from the Iberian Peninsula has been analyzed in this reesearch. A group of samples were selected from some sites and all the samples come from industrial structures. All this samples show ceramic additives. From the start, the effort was centered in the pieces of pottery that were found in the mortars. The samples were treated and processed to develop a first phase of the research using macroscopy. With this technique, great results were achieved in the characterization of mortars, the microstratigraphy and the location of the ceramic pieces. While observing these pieces, it was seen that the fragments of pottery had a ring bordering the piece. The pieces with the bigger and more vivid rings were chosen and they were analyzed by a polarized light microscope. The mortars were characterized microscopically and it also showed that the rings were not a physical alteration or a visual defect. After some more tests, the rings were a chemical change associated with the hydraulicity of the mortar. The best samples were selected and mappings of their chemical elements were performed in order to know what could be happening in the interface between the ceramic matrix fragment and lime. With the results obtained it was found that there was a potential; both calcium accumulation within the ceramic grains and outside, just in the area of contact with the binder, forming spots longitudinally along the edge. These data were very useful for carrying out the next phase of study, which would meet promptly what was happening chemically in the area of contact. Another group of samples were taken, and this time focused on ceramic grains that met a statistical variables. Grains were chosen with two types of cooking as well as grains with different sizes and grains with ash additive in the matrix of lime, thinking that might be the most logical to be some sort of chemical change between the baked clay and lime array variables . Such variables were adapted to a multi-varial and geometric statistical system in order to synthesize the results and optimally display the data together, as mentioned several times in this work. After selecting the variables grains proceeded to perform a linear and spectral analysis SEM-EDX. This analysis led to determine that the chemical changes were graduals. These changes are summarized in an increase in the percentages of calcium inside the reaction rim of ceramics, from the edge to the outer ring. So percentage increasing is also observed at the interface of the ceramic matrix fragment with lime, confirming the results obtained by the mapping. Overall in all samples can be seen a shoulder in graphic calcium through the area of the ring reaction condition. The remaining percentages of magnesium, silicon and aluminum are usual. We have promptly confirmed that the increase of calcium is accentuated in samples where there is no ash and lime matrix. Cases for these grains suffer a greater increase than the rest. The second variable suffering more calcium is increased corresponding to good cooking grains with clay. Therefore, it appears that the variable size of the fragment is not critical. Therefore, considering the visual tests to the rings and their response to chemical results, we might think that increasing calcium inside the ceramic fragments was due to an injection of calcium inside clay in the run-up to the setting phase. It is at this point that would be the key to the chemical change that occurs at this interface, silica-calcium aluminate some authors have already investigated. This injection of calcium into the grain does not come alone, but generate a lime crust on the outside interface of ceramics, which we tested for mapping is real in our samples. The consequence of these results is the improvement of our understanding of historical hydraulic factor in building materials, such as mortar. For example, knowing that the incorporation of organic materials such as ash powder, may be detrimental to the injection of calcium inside the ceramic additives. Archaeologically speaking, it's very interesting to correlate different factories or structures located on a single site, or in the same regional area. Characterization studies and microstratigraphy not only provide new information to help restore mortars, but create the possibility of generating constructive patterns that serve as guide fossils to determinate the age of the structures. With regard to the results obtained in different archaeological sites it has seen a difference between mortars of pools or sinks with respect to industrial floors of undetermined use. The sample of the site of Las Arenas does not have any micro-stratigraphy, as if instead in the samples obtained in Rotonda de Mejorada, Val de la Viña and La Magdalena sites. In these settlements the structures are really similar, with different construction levels using lime mortars with aggregates and gravel in the inner layers, and ceramic aggregates as external additions. With regard to the grain size of the ceramic additions Val de la Viña and La Magdalena samples has several coincidences about the size of grains and distribution. Also, samples taken at La Magdalena, there is a difference between the MG1, MG2, MG3 and MG4 samples and the MG5 and MG6 samples, so the last corresponding to a mortar samples with larger ceramic fragments. The EMG1 and EMG2 structures, corresponding to a bucket and a pool of La Magdalena settlement, have similarities with regard to micro-stratigraphy and grain size. It has been determined that the function and manufacturing must be linked with a same chronocultural context.