29 resultados para Visual surveillance, Human activity recognition, Video annotation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existe una creciente preocupación por las catástrofes de origen natural que están por llegar, motivo por el que se están realizando estudios desde prácticamente todas las ramas de la ciencia. La razón para ello se puede encontrar en el miedo a que los eventos futuros puedan dificultar las actividades humanas, aunque no es el único factor. Por todo ello, se produce una dispersión muy importante incluso en los conceptos más elementales como qué debe ser considerado o cómo debe llamarse y catalogarse uno u otro elemento. En consecuencia, los métodos para comprender los riesgos naturales también son muy diferentes, rara vez encontrándose enfoques realmente multidisciplinares. Se han realizado algunos esfuerzos para crear un marco de entendimiento común como por ejemplo, la "Directiva sobre inundaciones" o, más recientemente, la Directiva Inspire. Las entidades aseguradoras y reaseguradoras son un actor importante entre los muchos involucrados en los estudios de riesgos. Su interés radica en el hecho de que terminan pagando la mayor parte de la factura, si no toda. Pero, a cuánto puede ascender esa factura, no es una pregunta fácil de responder aún en casos muy concretos, y sin embargo, es la pregunta que constantemente se plantea por parte de los tomadores de decisiones a todos los niveles. Este documento resume las actividades de investigación que han llevado a cabo al objeto de sentar un marco de referencia, implementando de enfoques numéricos capaces de hacer frente a algunas de las cuestiones más relevantes que se encuentran en casi todos los estudios de riesgos naturales, ensayando conceptos de manera pragmática. Para ello, se escogió un lugar experimental de acuerdo a diferentes criterios, como la densidad de población, la facilidad de proporcionar los límites geográficos claros, la presencia de tres de los procesos geológicos más importantes (inundaciones, terremotos y vulcanismo) y la disponibilidad de datos. El modelo aquí propuesto aprovecha fuentes de datos muy diversas para evaluar los peligros naturales, poniendo de relieve la necesidad de un enfoque multidisciplinar y emplea un catálogo de datos único, unificado, independiente (no orientado), coherente y homogéneo para estimar el valor de las propiedades. Ahora bien, los datos se explotan de manera diferente según cada tipo de peligro, manteniendo sin variación los conceptos subyacentes. Durante esta investigación, se ha encontrado una gran brecha en la relación entre las pérdidas reales y las probabilidades del peligro, algo contrario a lo que se ha pensado que debía ser el comportamiento más probable de los riesgos naturales, demostrando que los estudios de riesgo tienen vida útil muy limitada. En parte debido ello, el modelo propuesto en este estudio es el de trabajar con escenarios, fijando una probabilidad de ocurrencia, lo que es contrario al modelo clásico de evaluar funciones continuas de riesgo. Otra razón para abordar la cuestión mediante escenarios es forzar al modelo para proporcionar unas cifras creíbles de daño máximo fijando cuestiones como la ubicación espacial de un evento y sus probabilidades, aportando una nueva visión del "peor escenario posible” de probabilidad conocida. ABSTRACT There is a growing concern about catastrophes of natural origin about to come hence many studies are being carried out from almost any science branch. Even though it is not the only one, fear for the upcoming events that might jeopardize any given human activity is the main motive. A forking effect is therefore heavily present even on the basic concepts of what is to be considered or how should it be named and catalogued; as a consequence, methods towards understanding natural risks also show great differences and a multidisciplinary approach has seldomly been followed. Some efforts were made to create a common understanding of such a matter, the “Floods Directive” or more recently the Inspire Directive, are a couple of examples. The insurance sector is an important actor among the many involved. Their interest relies on the fact that, eventually, they pay most of the bill if not all. But how much could that be is not an easy question to be answerd even in a very specific case, and it is almost always the question posed by decision makers at all levels. This document summarizes research activities that have being carried out in order to put some solid ground to be followed, implementing numerical approaches that are capable of coping with some of the most relevant issues found in almost all natural risk studies, testing concepts pragmatically. In order to do so, an experimental site was selected according to different criteria, such as population density, the ease of providing clear geographical boundaries, the presence of three of the most important geological processes (floods, earthquakes and volcanism) and data availability. The model herein proposed takes advantage of very diferent data sources in the assessment of hazard, pointing out how a multidisciplinary approach is needed, and uses only one unified, independent, consistent, homogeneous (non objective driven) source for assessing property value. Data is exploited differently according to each hazard type, but the underlying concepts remain the same. During this research, a deep detachment was found between actual loss and hazard chances, contrarily to what has been thought to be the most likely behaviour of natural hazards, proving that risk studies have a very limited lifespan. Partially because of such finding, the model in this study addresses scenarios with fixed probability of occurrence, as opposed to studying a continuous hazard function as usually proposed. Another reason for studying scenarios was to force the model to provide a reliable figure after a set of given parameters where fixed, such as the spatial location of an event and its chances, so the “worst case” of a given return period could be found.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Human activity attracting a lot of research activity in several fields including the use of wireless sensors, positioning technologies and techniques, embedded computing, remote sensing and energy management among others. There are a number of applications where the results of those investigations can be applied, including ambient intelligence to support human activity, particularly the elderly and disabled people. Ambient intelligence is a new paradigm for the information and communications technologies where the electronic/digital environment takes care of the people presence and their needs, becoming an active, adaptive and responsive environment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Channel cbanges are the consequence of cbanges in sediment yield from the slopes and in the connectivity between slopes and channels bccause of distinct land use and climate inJpacts. In Ibis study, we investigated the characteristics and evolution of a short reach in the headwater of the !juez River, central-soutbem Pyrenees. Assessment of a series of sedimentar)' and geomorphic structures confirtned major cbanges to the valley boUom, mainly related to changes in the intensity of human activity. 'The oldest sedimentar)' structure is a terrace leve! located 3 10 4 m above the current alluvial plain. General deforestation, overgrazing and recwring tires in the montane belt ( 1100-1600 m a.sJ.) have led 10 increased soil erosioo and connectivity, and to tbe triggering of debris llows thal have been deposited on the fluvial tmace. Woody fragments from within the debris llows were dated using acceleraror mass spectrOmetry '"e radiocaroon tcchniques (AMS), yielding ages between 1 00 and 115 cal years BP, whicb coincides with tbe period of maximum deforestalion and human density in the Pyrenees. Depopulation and fannland abaodonment since tbe beginning of tbe 2001 oenrury has resulled in generalliJcod natural and artificial reforestation, a shrinkage of the eroded arcas aod a decline in connectivi¡y bdween slopes and the channel. 1be rnost impor1an1 consequence has been cbannel incision and oarrowing, and the development of a sedimed annour !ayer. Active sedimenl b8llSpOI1 is continui.Qg, although there has been a decrease in sed.iment yield from the slopes. Copyright O 2014 John Wiley & Soos, Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente en nuestro planeta producimos 1.300 millones de toneladas de residuos urbanos al año. Si los extendemos sobre la superficie de un cuadrado de lado 100 m (una hectárea) alcanzarían una altura de 146 km. ¿Cuál es el origen de nuestros residuos? ¿A dónde va esta basura? ¿Cómo nos afecta? ¿Tiene alguna utilidad? Se trata de un problema antiguo que, en los últimos tiempos, ha adquirido una nueva dimensión por el tipo y la cantidad de residuos generados. Las primeras preocupaciones de la ciudad por ordenar estos problemas dieron lugar al establecimiento de espacios o lugares específicos para la acumulación de los residuos urbanos: los vertederos. Los desechos hoy se generan más rápidamente que los medios disponibles para reciclarlos o tratarlos. Los vertederos de residuos urbanos son y seguirán siendo, a corto y medio plazo, soluciones válidas por ser un método de gestión relativamente barato, sobre todo en los países en vías de desarrollo. Como consecuencia y necesidad de lo anterior, se plantea demostrar que la recuperación y la transformación de estos vertederos de residuos urbanos (lugares del deterioro), una vez abandonados, es posible y que además pueden dar lugar a nuevos espacios públicos estratégicos de la ciudad contemporánea. Son espacios de oportunidad, vacíos monumentales producto de una reactivación arquitectónica y paisajística realizada a partir de complejos procesos de ingeniería medioambiental. Pero las soluciones aplicadas a los vertederos de residuos urbanos desde mediados del siglo XX se han realizado exclusivamente desde la ingeniería para tratar de resolver cuestiones técnicas, un modelo agotado que ya no puede gestionar la magnitud que este problema ha alcanzado, haciéndose necesaria e inevitable la participación de la arquitectura para abrir nuevas líneas de investigación y de acción. En estos primeros compases del siglo XXI existe una “nueva” preocupación, un “nuevo” interés en los paradigmas de lo ecológico y de la sostenibilidad, también un interés filosófico (que igualmente otorga un nuevo valor al residuo como recurso), que dirigen su mirada hacia un concepto de paisaje abierto y diferente a modelos anteriores más estáticos, recuperando como punto de partida el ideal pintoresco. El landscape urbanism se consolida como una disciplina capaz de dar respuesta a lo natural y artificial simultáneamente, que sustituye a las herramientas tradicionales de la arquitectura para solucionar los problemas de la ciudad contemporánea, incorporando las infraestructuras de gran escala, como un vertedero de residuos urbanos, y los paisajes públicos que generan como el verdadero mecanismo de organización del urbanismo de hoy. No se trata solo de un modelo formal sino, lo que es más importante: de un modelo de procesos. Esta nueva preocupación permite abordar la cuestión del paisaje de manera amplia, sin restricciones, con un alto grado de flexibilidad en las nuevas propuestas que surgen como consecuencia de estos conceptos, si bien los esfuerzos, hasta la fecha, parecen haberse dirigido más hacia el fenómeno de lo estético, quedando todavía por explorar las consecuencias políticas, sociales, económicas y energéticas derivadas de los residuos. También las arquitectónicas. El proyecto del landscape urbanism se ocupa de la superficie horizontal, del plano del suelo. Desde siempre, la preparación de este plano para desarrollar cualquier actividad humana ha sido un gesto fundacional, un gesto propio necesario de toda arquitectura, que además ahora debe considerarlo como un medio o soporte biológicamente activo. En términos contemporáneos, el interés disciplinar radica en la continuidad y en la accesibilidad del suelo, diluyendo los límites; en que funcione a largo plazo, que se anticipe al cambio, a través de la flexibilidad y de la capacidad de negociación, y que sea público. La recuperación de un vertedero de residuos urbanos ofrece todas estas condiciones. Un breve recorrido por la historia revela los primeros ejemplos aislados de recuperación de estos lugares del deterioro, que han pasado por distintas fases en función de la cantidad y el tipo de los desechos producidos, evolucionando gracias a la tecnología y a una nueva mirada sobre el paisaje, hasta desarrollar una verdadera conciencia de lo ecológico (nacimiento de una ideología). El Monte Testaccio en Roma (siglos I-III d.C.) constituye un caso paradigmático y ejemplar de vertedero planificado a priori no solo como lugar en el que depositar los residuos, sino como lugar que será recuperado posteriormente y devuelto a la ciudad en forma de espacio público. Una topografía de desechos generada por acumulación, organizada y planificada durante tres siglos, que nos hace reflexionar sobre los temas de producción, consumo y proyecto arquitectónico. El Monte Testaccio revela una fuente de inspiración, un arquetipo de gestión sostenible de los recursos y del territorio. A través de la experiencia en la recuperación y transformación en espacios públicos de casos contemporáneos, como el antiguo vertedero de Valdemingómez en Madrid o el de El Garraf en Barcelona, se han analizado las técnicas y las soluciones empleadas para establecer nuevas herramientas de proyecto planteadas en clave de futuro, que revelan la importancia de los procesos frente a la forma, en los cuales intervienen muchos factores (tanto naturales como artificiales), entre ellos la vida y el tiempo de la materia viva acumulada. Son lugares para nuevas oportunidades y ejemplos de una nueva relación con la naturaleza. La reactivación de los vertederos de residuos, a través del proyecto, nos propone una nueva topografía construida en el tiempo, el suelo como soporte, como punto de encuentro de la naturaleza y los sistemas tecnológicos de la ciudad que posibilitan nuevos modos de vida y nuevas actividades. Los vertederos de residuos son inmensas topografías naturales surgidas de procesos artificiales, atalayas desde las que divisar un nuevo horizonte, un nuevo mundo, un nuevo futuro donde sea posible lograr la reversibilidad de nuestros actos del deterioro. Pero la voluntad de estas recuperaciones y transformaciones no consiste exclusivamente en su reintegración al paisaje, sino que han servido como muestra de las nuevas actitudes que la sociedad ha de emprender en relación a los temas medio ambientales. ABSTRACT Here on our planet we currently produce 1.3 billion tonnes of urban waste per year. If we were to spread this over a surface of 100m2 (one hectare), it would reach a height of 146km. What is the origin of this waste? Where does our refuse go? How does it affect us? Does it have any uses? We are dealing with an old problem which, in recent times, has taken on a new dimension due to the type of waste and the amount generated. Cities’ first concerns in resolving these problems gave rise to the establishment of areas or specific places for the accumulation of urban waste: landfills. These days, waste is generated more quickly than the available resources can recycle or process it. Urban waste landfills are and will continue to be, in the short and mid-term, valid solutions, given that they constitute a relatively cheap method for waste management, especially in developing countries. Consequently and necessarily, we plan to demonstrate that it is possible to recover and transform these urban waste landfills (areas of deterioration) once they have been abandoned and that they can give rise to new strategic public areas in contemporary cities. They are areas of opportunity, monumental vacancies produced by an architectural reactivation of the landscape, which is achieved using complex processes of environmental engineering. But the solutions applied to urban waste landfills throughout the 20th century have used engineering exclusively in the attempt to resolve the technical aspects. This is a worn-out model which can no longer handle the magnitude which the problem has attained and therefore, there is an inevitable need for the participation of architecture, which can open new lines of research and action. In these first steps into the 21st century, there is a “new” concern, a “new” interest in the paradigms of environmentalism and sustainability. There is also a philosophical interest (which assigns the new value of ‘resource’ to waste) and all is aimed towards the concept of an open landscape, unlike the previous, more static models, and the intention is to recover picturesque ideals as the starting point. Landscape urbanism has been established as a discipline capable of simultaneously responding to the natural and the artificial, replacing the traditional tools of architecture in order to resolve contemporary cities’ problems. It incorporates large scale infrastructures, such as urban waste landfills, and public landscapes which are generated as the true organisational mechanism of modern day urbanism. It is not merely a formal model, it is more important than that: it is a model of processes. This new concern allows us to address the matter of landscape in a broad way, without restrictions, and with a great degree of flexibility in the new proposals which come about as a consequence of these concepts. However, efforts to date seem to have been more directed at aesthetic aspects and we have yet to explore the political, social, economic and energetic consequences derived from waste – nor have we delved into the architectural consequences. The landscape urbanism project is involved with the horizontal surface, the ground plane. Traditionally, the preparation of this plane for the development of any human activity has been a foundational act, a necessary act of all architecture, but now this plane must be considered as a biologically active medium or support. In contemporary terms, the discipline’s interest lies in the continuity and accessibility of the land, diffusing the limits; in long term functionality; in the anticipation of change, via flexibility and the ability to negotiate; and in it being a public space. The recovery of an urban waste landfill offers all of these conditions. A brief look through history reveals the first isolated examples of recovery of these spaces of deterioration. They have gone through various phases based on the quantity and type of waste produced, they have evolved thanks to technology and a new outlook on the landscape, and a real environmental awareness has been developed (the birth of an ideology). Monte Testaccio in Rome (1st to 3rd Century AD) constitutes a paradigmatic and exemplary case of a landfill that was planned a priori not only as a place to deposit waste but also as a place that would be subsequently recovered and given back to the city in the form of a public space. This spoil mound, generated by organised and planned accumulation over three centuries, makes us reflect on the themes of production, consumption and architectural planning. Monte Testaccio reveals a source of inspiration, an archetype of the sustainable management of resources and land. Using our experience of contemporary cases of land recovery and its transformation into public spaces, such as the former Valdemingómez landfill in Madrid or the Garraf in Barcelona, we analysed the techniques and solutions used in order to establish new project tools. These are proposed with an eye on the future, seeing as they reveal the importance of the processes over the form and involve many factors (both natural and artificial), including the life and age of the accumulated living matter. They are places for new opportunities and examples of our new relationship with nature. The reactivation of landfills, via this project, is a proposal for a new topography built within time, using the ground as the support, as the meeting point between nature and the technological systems of the city which make it possible for new ways of life and new activities to come about. Landfills are immense natural topographical areas produced by artificial processes, watchtowers from which to discern a new horizon, a new world, a new future in which it will be possible to reverse our acts of deterioration. But the intention behind these recoveries and transformations does not only hope for landscape reintegration but it also hopes that they will also serve as a sign of the new attitudes that must be adopted by society with regard to environmental matters.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La preservación del medio ambiente, el avance en las técnicas para que el impacto de la actividad humana sobre la fauna y flora sea lo menor posible, hacen que se deban monitorizar los diversos indicadores de calidad. El presente estudio viene motivado debido a que actualmente existen sistemas de medida y control en continuo de la calidad de las aguas, al margen de los estudios de laboratorio por toma de muestras, a través de los cuales se obtienen indicadores de calidad. El desarrollo tecnológico en analizadores en continuo para la medida de fósforo, amonio, DBO y otros, hacen que cada vez se consiga un control más exhaustivo de la calidad en tiempo real. Sin embargo, la detección temprana de contaminantes que no deben encontrarse presentes en el agua, hacen que el desarrollo de sensores de detección de estos contaminantes sea de gran utilidad. A este respecto, las técnicas mediante fluorescencia presentan enormes ventajas, ya que no existe contacto directo con la muestra, reduciéndose el desgaste y alargando el tiempo entre mantenimientos, como se ha comprobado en numerosos desarrollos con tecnología láser. Para la producir fluorescencia, tradicionalmente se vienen utilizando en el laboratorio principalmente lámparas de gas y monocromadores. Los nuevos LED de alta potencia en el espectro ultravioleta son una alternativa muy interesante que además puede ser aplicada en los mencionados sistemas de medición en continuo. En este trabajo se realiza un estudio de viabilidad de estos dispositivos como fuentes de excitación para la producción de fluorescencia tomando como contaminantes los hidrocarburos. El funcionamiento en estaciones en continuo hace que se tenga que realizar además ensayos de vida acelerados, así como estudios de modos de trabajo. Al respecto de la fluorescencia producida, se estudia la influencia de factores que pueden afectar a las medidas, tales como la temperatura. El estudio del espectro y su análisis para la identificación del contaminante es otro de los puntos desarrollados en este trabajo. Por último, y dado que la monitorización se realiza en modo continuo, es necesario un sistema de comunicaciones compacto y fiable: en este apartado se analizan los metamateriales como solución tecnológica, ya que se adapta perfectamente a la filosofía de estas estaciones de medición. ABSTRACT Currently the monitoring of quality indicators is a need to preserve the environment and minimize the impact of human activity on the fauna and flora. Currently there are measuring systems and continuous monitoring of water quality, regardless of sampling laboratory studies, through which quality indicators are obtained. Technological development in continuous analyzers for the measurement of phosphorus, ammonia, BOD and others increasingly make a more comprehensive real-time quality control is achieved. However, early detection of contaminants that should not be present in the water, make the development of sensors for detecting these contaminants is very useful. In this regard, fluorescence techniques have huge advantages, since there is no direct contact with the sample, reducing wear and extending the time between maintenance, as has been demonstrated in numerous developments in laser technology. To produce fluoresce, traditionally are being used mainly gas lamps and monochromators at the laboratory. The new high-power LEDs in the ultraviolet spectrum are a very interesting alternative that can also be applied in the above continuous measurement systems. In this paper a viability study of these devices as excitation sources to produce fluorescence using hydrocarbon as contaminants is performed. The stations in continuous operation makes it necessary to also perform accelerated life tests and studies operating modes. In regard to the fluorescence produced, the influence of factors that may affect the measurements, such as temperature is studied. The study of the spectrum and analysis to identify the contaminant is another of the points developed in this work. Finally, since the monitoring is carried out in continuous mode, a compact and reliable communication is necessary: in this section metamaterials as a technological solution is analyzed since it fits perfectly with the philosophy of these measuring stations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral tiene como principal objetivo el obtener una cadena de tratamientos seguros de aguas seriados que nos permita asegurar la calidad de las aguas para consumo humano en caso de emergencias, de tal forma que se minimicen los efectos de acciones hostiles, como sabotajes o actos terroristas, desastres naturales, etc y buscar soluciones adecuadas para garantizar en este caso la salud. Las plantas de tratamientos de aguas existentes comercialmente no aseguran dicha calidad y la documentación sobre el tema presenta vacíos de conocimiento, contradicciones entre resultados de investigaciones o insostenibilidad de conclusiones de las mismas. Estas carencias nos permiten determinar los aspectos a tratar durante la investigación. Por ello, este objetivo se concretó en tres acciones: Investigar sobre rendimientos de plantas convencionales en eliminación de microorganismos y productos tóxicos y peligrosos. Introducir mejoras que garanticen el rendimiento de las plantas convencionales. Investigar sobre la conveniencia de complementar las instalaciones existentes buscando seguridad y garantía sanitaria. Y se desarrollaron tres líneas de investigación: LI 1 “Inorgánicos”: Investigación sobre la eliminación de los metales boro, cobre y molibdeno mediante procesos de intercambio iónico y de coagulaciónfloculación- decantación. LI 2 “Compuestos Orgánicos Volátiles”: Investigación sobre la eliminación de los compuestos orgánicos 1,1 dicloroetano, 1,2 dicloroetano, clorobenceno, 1,3 dicloropropeno y hexacloro 1,3 butadieno mediante procesos de carbón activo granular y de oxidación avanzada. LI 3 “Plantas portátiles”: Investigación sobre plantas existentes portátiles para verificar su rendimiento teórico y proponer mejoras. Estas líneas de investigación se desarrollaron tanto en el nivel teórico como en el empírico, bien sea en laboratorio como en campo. A lo largo del documento se demuestra que las principales fuentes de contaminación, salvo la degradación de yacimientos naturales, proceden de la actividad humana (efluentes industriales y agrícolas, aguas residuales y actividades beligerantes) que provocan un amplio espectro de enfermedades por lo que dificultan tanto la definición de la fuente como la anticipada detección de la enfermedad. Las principales conclusiones que se obtuvieron están relacionadas con el rendimiento de eliminación de los parámetros tras la aplicación de los procesos y plantas de tratamiento de aguas anteriormente reseñadas. Sin embargo, el verdadero elemento designador de originalidad de esta Tesis Doctoral, tal como se ha reseñado arriba, radica en la definición de un sistema seriado de procesos de tratamiento de aguas que asegura la calidad en caso de emergencia. Éste se define en el siguiente orden: pretratamiento, oxidación, coagulación-floculación-decantación, filtración por arena, intercambio iónico, carbón activo granular, microfiltración, radiación UV, ósmosis inversa, radiación UV y cloración final. The main objective of this Thesis is to obtain a chain of stepwise safe water treatments that allow us to ensure the quality of water for human consumption in case of emergencies, so that the effects of hostile actions, such as sabotage or terrorism, natural disasters, etc. and seek appropriate solutions in this case to ensure health. The existing commercial water treatment plants do not ensure quality, and the documentation on the subject presents knowledge gaps or contradictions. These gaps allow us to determine the issues to be discussed during the investigation. Therefore, this objective was manifested in three actions: Researching yields in commercial plants and microorganisms, or toxic and dangerous products removal. Improvements to ensure the performance of conventional plants. Inquire about the advisability of implementing existing facilities for safety and health guarantee. And three lines of research are developed: LI 1 “Inorganic elements”: Research removing metals iron, copper and molybdenum by ion exchange processes and coagulation-flocculation-decantation. LI 2 “Volatile Organic Compounds”: Research removing organic compounds 1,1 dichloroethane, 1,2 dichloroethane, chlorobenzene, 1,3-dichloropropene and 1,3-butadiene hexachloro through processes of granular activated carbon and advanced oxidation. LI 3 “Compact Water Treatment Plants”: Research on existing packaged plants to verify theoretical performance and suggest improvements. These lines of research are developed both theoretically and empirically, both in the laboratory and in the field. Throughout the document, it is evident that the main sources of pollution, other than the degradation of natural deposits, come from human activity (industrial and agricultural effluents, sewage and belligerent activities) which cause a broad spectrum of diseases which hamper both the definition of the source and the early detection of the disease. The main conclusions drawn are related to both the removal efficiency parameters after application of processes and treatment plants outlined above water. However, the real designator of originality of this thesis, such as outlined above, lies in the definition of a serial system water treatment processes assuring quality in case of emergency. This is defined in the following order: pretreatment, oxidation, coagulation-flocculation-sedimentation, sand filtration, ion exchange, granular activated carbon, microfiltration, UV radiation, reverse osmosis, UV radiation and final chlorination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A more natural, intuitive, user-friendly, and less intrusive Human–Computer interface for controlling an application by executing hand gestures is presented. For this purpose, a robust vision-based hand-gesture recognition system has been developed, and a new database has been created to test it. The system is divided into three stages: detection, tracking, and recognition. The detection stage searches in every frame of a video sequence potential hand poses using a binary Support Vector Machine classifier and Local Binary Patterns as feature vectors. These detections are employed as input of a tracker to generate a spatio-temporal trajectory of hand poses. Finally, the recognition stage segments a spatio-temporal volume of data using the obtained trajectories, and compute a video descriptor called Volumetric Spatiograms of Local Binary Patterns (VS-LBP), which is delivered to a bank of SVM classifiers to perform the gesture recognition. The VS-LBP is a novel video descriptor that constitutes one of the most important contributions of the paper, which is able to provide much richer spatio-temporal information than other existing approaches in the state of the art with a manageable computational cost. Excellent results have been obtained outperforming other approaches of the state of the art.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Uno de los mayores retos para la comunidad científica es conseguir que las máquinas posean en un futuro la capacidad del sistema visual y cognitivo humanos, de forma que, por ejemplo, en entornos de video vigilancia, puedan llegar a proporcionar de manera automática una descripción fiable de lo que está ocurriendo en la escena. En la presente tesis, mediante la propuesta de un marco de trabajo de referencia, se discuten y plantean los pasos necesarios para el desarrollo de sistemas más inteligentes capaces de extraer y analizar, a diferentes niveles de abstracción y mediante distintos módulos de procesamiento independientes, la información necesaria para comprender qué está sucediendo en un conjunto amplio de escenarios de distinta naturaleza. Se parte de un análisis de requisitos y se identifican los retos para este tipo de sistemas en la actualidad, lo que constituye en sí mismo los objetivos de esta tesis, contribuyendo así a un modelo de datos basado en el conocimiento que permitirá analizar distintas situaciones en las que personas y vehículos son los actores principales, dejando no obstante la puerta abierta a la adaptación a otros dominios. Así mismo, se estudian los distintos procesos que se pueden lanzar a nivel interno así como la necesidad de integrar mecanismos de realimentación a distintos niveles que permitan al sistema adaptarse mejor a cambios en el entorno. Como resultado, se propone un marco de referencia jerárquico que integra las capacidades de percepción, interpretación y aprendizaje para superar los retos identificados en este ámbito; y así poder desarrollar sistemas de vigilancia más robustos, flexibles e inteligentes, capaces de operar en una variedad de entornos. Resultados experimentales ejecutados sobre distintas muestras de datos (secuencias de vídeo principalmente) demuestran la efectividad del marco de trabajo propuesto respecto a otros propuestos en el pasado. Un primer caso de estudio, permite demostrar la creación de un sistema de monitorización de entornos de parking en exteriores para la detección de vehículos y el análisis de plazas libres de aparcamiento. Un segundo caso de estudio, permite demostrar la flexibilidad del marco de referencia propuesto para adaptarse a los requisitos de un entorno de vigilancia completamente distinto, como es un hogar inteligente donde el análisis automático de actividades de la vida cotidiana centra la atención del estudio. ABSTRACT One of the most ambitious objectives for the Computer Vision and Pattern Recognition research community is that machines can achieve similar capacities to the human's visual and cognitive system, and thus provide a trustworthy description of what is happening in the scene under surveillance. Thus, a number of well-established scenario understanding architectural frameworks to develop applications working on a variety of environments can be found in the literature. In this Thesis, a highly descriptive methodology for the development of scene understanding applications is presented. It consists of a set of formal guidelines to let machines extract and analyse, at different levels of abstraction and by means of independent processing modules that interact with each other, the necessary information to understand a broad set of different real World surveillance scenarios. Taking into account the challenges that working at both low and high levels offer, we contribute with a highly descriptive knowledge-based data model for the analysis of different situations in which people and vehicles are the main actors, leaving the door open for the development of interesting applications in diverse smart domains. Recommendations to let systems achieve high-level behaviour understanding will be also provided. Furthermore, feedback mechanisms are proposed to be integrated in order to let any system to understand better the environment and the logical context around, reducing thus the uncertainty and noise, and increasing its robustness and precision in front of low-level or high-level errors. As a result, a hierarchical cognitive architecture of reference which integrates the necessary perception, interpretation, attention and learning capabilities to overcome main challenges identified in this area of research is proposed; thus allowing to develop more robust, flexible and smart surveillance systems to cope with the different requirements of a variety of environments. Once crucial issues that should be treated explicitly in the design of this kind of systems have been formulated and discussed, experimental results shows the effectiveness of the proposed framework compared with other proposed in the past. Two case studies were implemented to test the capabilities of the framework. The first case study presents how the proposed framework can be used to create intelligent parking monitoring systems. The second case study demonstrates the flexibility of the system to cope with the requirements of a completely different environment, a smart home where activities of daily living are performed. Finally, general conclusions and future work lines to further enhancing the capabilities of the proposed framework are presented.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The aim of this Master Thesis is the analysis, design and development of a robust and reliable Human-Computer Interaction interface, based on visual hand-gesture recognition. The implementation of the required functions is oriented to the simulation of a classical hardware interaction device: the mouse, by recognizing a specific hand-gesture vocabulary in color video sequences. For this purpose, a prototype of a hand-gesture recognition system has been designed and implemented, which is composed of three stages: detection, tracking and recognition. This system is based on machine learning methods and pattern recognition techniques, which have been integrated together with other image processing approaches to get a high recognition accuracy and a low computational cost. Regarding pattern recongition techniques, several algorithms and strategies have been designed and implemented, which are applicable to color images and video sequences. The design of these algorithms has the purpose of extracting spatial and spatio-temporal features from static and dynamic hand gestures, in order to identify them in a robust and reliable way. Finally, a visual database containing the necessary vocabulary of gestures for interacting with the computer has been created.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Automatic visual object counting and video surveillance have important applications for home and business environments, such as security and management of access points. However, in order to obtain a satisfactory performance these technologies need professional and expensive hardware, complex installations and setups, and the supervision of qualified workers. In this paper, an efficient visual detection and tracking framework is proposed for the tasks of object counting and surveillance, which meets the requirements of the consumer electronics: off-the-shelf equipment, easy installation and configuration, and unsupervised working conditions. This is accomplished by a novel Bayesian tracking model that can manage multimodal distributions without explicitly computing the association between tracked objects and detections. In addition, it is robust to erroneous, distorted and missing detections. The proposed algorithm is compared with a recent work, also focused on consumer electronics, proving its superior performance.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

New forms of natural interactions between human operators and UAVs (Unmanned Aerial Vehicle) are demanded by the military industry to achieve a better balance of the UAV control and the burden of the human operator. In this work, a human machine interface (HMI) based on a novel gesture recognition system using depth imagery is proposed for the control of UAVs. Hand gesture recognition based on depth imagery is a promising approach for HMIs because it is more intuitive, natural, and non-intrusive than other alternatives using complex controllers. The proposed system is based on a Support Vector Machine (SVM) classifier that uses spatio-temporal depth descriptors as input features. The designed descriptor is based on a variation of the Local Binary Pattern (LBP) technique to efficiently work with depth video sequences. Other major consideration is the especial hand sign language used for the UAV control. A tradeoff between the use of natural hand signs and the minimization of the inter-sign interference has been established. Promising results have been achieved in a depth based database of hand gestures especially developed for the validation of the proposed system.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.