428 resultados para Secano mejorado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El área urbana localizada en el contorno de la ría de Vigo se vino comportando hasta finales de los años ochenta del siglo XX como una verdadera "ciudad difusa", entendida la difusión como la forma de urbanización de baja densidad que todavía conserva unas características y una funcionalidad propiamente urbanas, aportadas por la malla tradicional parroquial de caminos y núcleos de población. Esta Tesis demuestra que en el período de veinte años transcurrido entre 1990 y 2010, el área, en la que ya se apreciaban fenómenos de naturaleza metropolitana y policentrismo, experimentó una transformación basada en los factores y formas de urbanización estudiados en otras áreas y ciudades intermedias de similares dimensiones. Para la delimitación del ámbito de estudio se consideraron las diferentes dimensiones y escalas de áreas funcionales utilizadas en distintos estudios y planes territoriales, eligiéndose el que toma como referente principal la Ría de Vigo como soporte de la conurbación polinuclear de su contorno. Para investigar el desarrollo urbanístico operado en el período se estudiaron los factores y formas de urbanización característicos de la urbanización en territorios de baja densidad en esta época, y las variables de densidad es de población y vivienda, primacía y polaridad territorial, ritmos de edificación, planeamiento urbanístico y territorial, actividades económicas, movilidad, desplazamientos residenciatrabajo y vacíos urbanos. Las conclusiones permiten observar como el crecimiento residencial descentralizado, que se ha dado principalmente en el litoral, y la localización periférica de las actividades y dotaciones públicas han introducido elementos de dispersión y fragmentación espacial y social, así como las nuevas y potentes infraestructuras viarias, que han mejorado los desplazamientos a costa de una dependencia abusiva del vehículo privado, y han comenzado a amenazar la sostenibilidad del sistema. La planificación de ordenación territorial a escala metropolitana y el planeamiento urbanístico, que se comenzaron a utilizar con normalidad en esta época, se vislumbran como una oportunidad para reconducir el proceso, integrando los territorios genéricos surgidos entre las nuevas infraestructuras y dotaciones y la malla tradicional, así como los vacíos urbanos susceptibles de compactación, protegiendo aquellos otros vacíos que deben constituir la principal reserva ecológica: Los montes en mano común y la Ría de Vigo. La necesidad de una planificación operativa, sostenible y participativa, que integre la ordenación territorial, la gestión integral de los recursos de la Ría, y articule las diferentes competencias y escalas, la gobernanza , la participación ciudadana y el mercado, se considera la principal conclusión para el futuro. ABSTRACT The urban area located around the Ría de Vigo* used to behave like a “diffused city” until the late 1980s, understanding this difussion as the low-density urbanization that still today exhibits ‘urban’ characteristics and functionality, given by the traditional network of parish paths and town cores. This Thesis shows that during the twenty-year period from 1990 to 2010, this area, which previously showed signals of polycentrism and metropolitan character, started a transformation based on the factors and ways of urbanization studied in other areas and intermediate cities of similar dimensions. In order to demarcate the scope of this study, different dimensions and functional area scales previously used in other studies have been taken into account, choosing the one that takes the Ría de Vigo as the main reference and the basis of the polynuclear conurbation of its surroundings. To research the urban development in this period, factors and ways of urbanization regarding lowdensity territories have been considered, as well as some variables like density of population and housing, territorial primacy and polarity, building rates, territorial planning, economic activities, mobility, home-to-work trips and urban holes. Conclusions allow us to point out how the decentralised residential growing (that occurred mainly on the litoral surface) and the periferic localization of the activities and public facilities, have created elements of “sprawl” and spacial and social fragmentation, which, together with the new and powerfull road infraestructures network (that made the movements easier by means of an abusive dependence on the private vehicle), have started to threaten the sustainability of the system. The planification of the territorial ordinance at metropolitan scale and the urban planning, that in that time started to be established, can be considered as an opportunity to get things back on track, integrating the territories risen up from the new infrastructures and facilities and the traditional network together with the urban holes liable to be compacted, with a special protection of the spaces that must be the main ecological reserve: the communal forests and the Ría de Vigo. The need of a sustainable and participatory operative planification, able to integrate the territory planning, the integral management of resources and the citizen involvement and the market, has to be considered as the main goal for the future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se va a realizar un estudio de la codificación de imágenes sobre el estándar HEVC (high-effiency video coding). El proyecto se va a centrar en el codificador híbrido, más concretamente sobre la aplicación de la transformada inversa del coseno que se realiza tanto en codificador como en el descodificador. La necesidad de codificar vídeo surge por la aparición de la secuencia de imágenes como señales digitales. El problema principal que tiene el vídeo es la cantidad de bits que aparecen al realizar la codificación. Como consecuencia del aumento de la calidad de las imágenes, se produce un crecimiento exponencial de la cantidad de información a codificar. La utilización de las transformadas al procesamiento digital de imágenes ha aumentado a lo largo de los años. La transformada inversa del coseno se ha convertido en el método más utilizado en el campo de la codificación de imágenes y video. Las ventajas de la transformada inversa del coseno permiten obtener altos índices de compresión a muy bajo coste. La teoría de las transformadas ha mejorado el procesamiento de imágenes. En la codificación por transformada, una imagen se divide en bloques y se identifica cada imagen a un conjunto de coeficientes. Esta codificación se aprovecha de las dependencias estadísticas de las imágenes para reducir la cantidad de datos. El proyecto realiza un estudio de la evolución a lo largo de los años de los distintos estándares de codificación de video. Se analiza el codificador híbrido con más profundidad así como el estándar HEVC. El objetivo final que busca este proyecto fin de carrera es la realización del núcleo de un procesador específico para la ejecución de la transformada inversa del coseno en un descodificador de vídeo compatible con el estándar HEVC. Es objetivo se logra siguiendo una serie de etapas, en las que se va añadiendo requisitos. Este sistema permite al diseñador hardware ir adquiriendo una experiencia y un conocimiento más profundo de la arquitectura final. ABSTRACT. A study about the codification of images based on the standard HEVC (high-efficiency video coding) will be developed. The project will be based on the hybrid encoder, in particular, on the application of the inverse cosine transform, which is used for the encoder as well as for the decoder. The necessity of encoding video arises because of the appearance of the sequence of images as digital signals. The main problem that video faces is the amount of bits that appear when making the codification. As a consequence of the increase of the quality of the images, an exponential growth on the quantity of information that should be encoded happens. The usage of transforms to the digital processing of images has increased along the years. The inverse cosine transform has become the most used method in the field of codification of images and video. The advantages of the inverse cosine transform allow to obtain high levels of comprehension at a very low price. The theory of the transforms has improved the processing of images. In the codification by transform, an image is divided in blocks and each image is identified to a set of coefficients. This codification takes advantage of the statistic dependence of the images to reduce the amount of data. The project develops a study of the evolution along the years of the different standards in video codification. In addition, the hybrid encoder and the standard HEVC are analyzed more in depth. The final objective of this end of degree project is the realization of the nucleus from a specific processor for the execution of the inverse cosine transform in a decoder of video that is compatible with the standard HEVC. This objective is reached following a series of stages, in which requirements are added. This system allows the hardware designer to acquire a deeper experience and knowledge of the final architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis se centra en el desarrollo de un método para la reconstrucción de bases de datos experimentales incompletas de más de dos dimensiones. Como idea general, consiste en la aplicación iterativa de la descomposición en valores singulares de alto orden sobre la base de datos incompleta. Este nuevo método se inspira en el que ha servido de base para la reconstrucción de huecos en bases de datos bidimensionales inventado por Everson y Sirovich (1995) que a su vez, ha sido mejorado por Beckers y Rixen (2003) y simultáneamente por Venturi y Karniadakis (2004). Además, se ha previsto la adaptación de este nuevo método para tratar el posible ruido característico de bases de datos experimentales y a su vez, bases de datos estructuradas cuya información no forma un hiperrectángulo perfecto. Se usará una base de datos tridimensional de muestra como modelo, obtenida a través de una función transcendental, para calibrar e ilustrar el método. A continuación se detalla un exhaustivo estudio del funcionamiento del método y sus variantes para distintas bases de datos aerodinámicas. En concreto, se usarán tres bases de datos tridimensionales que contienen la distribución de presiones sobre un ala. Una se ha generado a través de un método semi-analítico con la intención de estudiar distintos tipos de discretizaciones espaciales. El resto resultan de dos modelos numéricos calculados en C F D . Por último, el método se aplica a una base de datos experimental de más de tres dimensiones que contiene la medida de fuerzas de una configuración ala de Prandtl obtenida de una campaña de ensayos en túnel de viento, donde se estudiaba un amplio espacio de parámetros geométricos de la configuración que como resultado ha generado una base de datos donde la información está dispersa. ABSTRACT A method based on an iterative application of high order singular value decomposition is derived for the reconstruction of missing data in multidimensional databases. The method is inspired by a seminal gappy reconstruction method for two-dimensional databases invented by Everson and Sirovich (1995) and improved by Beckers and Rixen (2003) and Venturi and Karniadakis (2004). In addition, the method is adapted to treat both noisy and structured-but-nonrectangular databases. The method is calibrated and illustrated using a three-dimensional toy model database that is obtained by discretizing a transcendental function. The performance of the method is tested on three aerodynamic databases for the flow past a wing, one obtained by a semi-analytical method, and two resulting from computational fluid dynamics. The method is finally applied to an experimental database consisting in a non-exhaustive parameter space measurement of forces for a box-wing configuration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo seguido en este proyecto fin de carrera, ha sido el análisis de la evolución general de la tecnología, tanto electrónica, como en Telecomunicaciones e Informática, desde sus inicios hasta la actualidad, realizando un estudio sobre cómo esos avances han mejorado, incluso cambiado nuestra vida cotidiana y cómo a consecuencia de la conversión de muchos de estos productos tecnológicos en objeto de consumo masivo, la propia dinámica económico-comercial ha llevado a las empresas a la programación del fin del su vida útil con el objeto de incrementar su demanda y, consiguientemente, la producción. Se trata de lo que se conoce desde hace décadas como Obsolescencia Programada. Para realizar este documento se ha realizado un breve repaso por los acontecimientos históricos que promovieron el inicio de esta práctica, así como también nos ha llevado a realizar mención de todos esos aparatos tecnológicos que han sufrido una mayor evolución y por tanto son los más propensos a que se instauren en ellos, debido a cómo influyen dichos cambios en los consumidores. Otro de los aspectos más importantes que rodean a la Obsolescencia Programada, es cómo influye en el comportamiento de la sociedad, creando en ella actitudes consumistas, que precisamente son las que alimentan que el ciclo económico siga basándose en incluir esta práctica desde el diseño del producto, puesto que a mayor consumo, mayor producción, y por tanto, supone un aumento de beneficios para el fabricante. Aunque, lo que para algunos supone un amplio margen de rentabilidad, existen otros componentes de la ecuación que no salen tan bien parados, como pueden ser los países del tercer mundo que están siendo poblados de basura electrónica, y en general el medio ambiente y los recursos de los que hoy disponemos, que no son ilimitados, y que están viéndose gravemente afectados por la inserción de esta práctica. Como cierre de este análisis, se repasarán algunas de las técnicas empleadas en algunos de los productos más utilizados hoy en día y las conclusiones a las que se han llevado después de analizar todos estos puntos del tema. ABSTRACT. The main goal followed in this final project has been analyzing the overall evolution of technology, both electronics and telecommunications. Also, computer science; from beginning to present it has been realized some studies about these advances have improved our daily life, even changing our routine, and turn us massive consumers of all technological products on the market. This dynamic economic and commercial has led companies to programming the end of its useful life in order to increase demand, and consequently, the production. This is known as Obsolescence. To make this document has been made a brief review through historical events that promoted the opening of this practice, and also led us to make mention all these technological devices have undergone further evolution and therefore more likely to establish them, because these changes affect consumers. Another important aspect around planned obsolescence is how to influence in society’s behavior, creating consumerist attitudes, which are precisely those feed the economic cycle continues to be based on including this practice from product design, because increased consumption and production. Therefore, this fact increases profits for the manufacturer. Although, for some people suppose a wide margin of profitability, there are other components do not have such luck; for example, third World countries have been filled with e-waste and the environment, in general, and resources available today which are not unlimited, and who are seriously affected by the inclusion of this practice. To close this analysis, we will review a few techniques used in some products most widely used today, and the conclusions that have been made after analyzing all these points of the topic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo estudia el empleo del olmo de Siberia (Ulmus Pumila L.) y el chopo (Populus spp.) en corta rotación y alta densidad para la producción de biomasa con fines energéticos. En el área mediterránea las disponibilidades hídricas son limitadas, por lo que la mayoría de los cultivos energéticos utilizados hasta el momento requieren el aporte de agua de riego; por ello resulta fundamental encontrar especies con bajos requerimientos hídricos, analizar la eficiencia en el uso del agua de diferentes materiales genéticos y optimizar la dosis de riego. Las parcelas experimentales se ubicaron en la provincia de Soria. En el ensayo llevado a cabo con olmo de Siberia se ha analizado el efecto en la producción de la disponibilidad de agua mediante el establecimiento de parcelas en secano y con dos dosis de riego (2000 m3 ha-1 año-1 y 4000 m3 ha-1 año-1 aproximadamente); además, al ser una especie poco estudiada hasta el momento, se ha estudiado también el efecto que tiene sobre el rendimiento la densidad de plantación (3.333 plantas ha-1 y 6.666 plantas ha-1), el tipo de suelo (2 calidades diferentes) y el turno de corta (3 y 4 años). En el caso del chopo, se han evaluado cuatro clones (AF-2, I-214, Monviso y Pegaso) establecidos con una densidad de 20.000 plantas por hectárea. Durante el primer ciclo de tres años se aportó el mismo volumen de riego a todas las parcelas, mientras que durante el segundo ciclo se establecieron 8 regímenes hídricos diferentes. Por otra parte, se ha investigado sobre el uso del potencial hídrico de las plantas para evaluar el estrés hídrico de las mismas y se ha estimado la producción de biomasa foliar y el Índice de Área Foliar (LAI) de ambas especies, relacionando los valores obtenidos con la dosis de riego y la producción de biomasa. Los resultados muestran que los suelos inundados reducen la tasa de supervivencia de los olmos durante el periodo de implantación, sin embargo la mortalidad durante los siguientes periodos vegetativos es baja y muestra buena capacidad de rebrote. La productividad (kg ha-1 año-1) obtenida fue mayor con un turno de corta de cuatro años que con turno de tres años. El área basal y la altura fueron variables eficaces para predecir la producción de biomasa del olmo de Siberia, obteniendo una variabilidad explicada de más del 80%. En cuanto a los parámetros que mayor influencia tuvieron sobre el crecimiento, el tipo de suelo resulto ser el más relevante, obteniéndose en un suelo agrícola considerado de buena calidad una producción en condiciones de secano de unos 8.000 kg ha-1 año-1. En condiciones de regadío el rendimiento del olmo de Siberia fue al menos el doble que en secano, pero la diferencia entre las dos dosis de riego estudiadas fue pequeña. La producción de biomasa fue mayor en la densidad de plantación más alta (6.666 plantas ha–1) en las parcelas de regadío, sin embargo no se encontraron diferencias significativas entre las dos densidades en secano. El clon de chopo que presentó un mayor rendimiento durante el primer ciclo fue AF-2, alcanzando los 14.000 kg ha-1 año-1, sin embargo la producción de este clon bajó sustancialmente durante el segundo ciclo debido a su mala capacidad de rebrote, pasando a ser I-214 el clon más productivo llegando también a los 14.000 kg ha-1 año-1. Un aporte adicional de agua proporcionó un incremento de la biomasa recogida, pero a partir de unos 6.500 m3 ha-1 año-1 de agua la producción se mantiene constante. El potencial hídrico foliar ha resultado ser una herramienta útil para conocer el estrés hídrico de las plantas. Los olmos de regadío apenas sufrieron estrés hídrico, mientras que los implantados en condiciones de secano padecieron un acusado estrés durante buena parte del periodo vegetativo, que se acentuó en la parte final del mismo. Los chopos regados con las dosis más altas no sufrieron estrés hídrico o fue muy pequeño, en las dosis intermedias sufrieron un estrés moderado ocasionalmente y únicamente en las dosis más bajas sufrieron puntualmente un estrés severo. El LAI aumenta con la edad de los brotes y oscila entre 2 y 4 m2 m−2 en los chopos y entre 2 y 7 m2 m−2 en los olmos. Se encontró una buena relación entre este índice y la producción de biomasa del olmo de Siberia. En general, puede decirse que el olmo de Siberia podría ser una buena alternativa para producir biomasa leñosa en condiciones de secano, mientras que el chopo podría emplearse en regadío siempre que se haga una buena elección del clon y de la dosis de riego. ABSTRACT This work explores the possibilities of biomass production, for energy purposes, of Siberian elm (Ulmus Pumila L.) and poplar (Populus spp.) in Spain. Irrigation is required for the viable cultivation of many energy crops in Mediterranean areas because of low water availability, for this reason species with low water requirements should be a good alternative for biomass production. Moreover, the optimal amount of irrigation water and the performance of the different genetic material in terms of production and water use efficiency should be studied in order to use water wisely. The experimental plots were established in the province of Soria in Spain. Given the small amount of information available about Siberian elm, besides studying the influence of water availability (rain-fed and two different irrigation doses) on biomass production, two different plantation densities (3,333 plants ha-1 and 6,666 plants ha-1), two different soil type and two cutting cycles (three years and four years) were assessed. In the case of poplar, four clones belonging to different hybrids (I-214, AF2, Pegaso, and Monviso) were included in a high density plantation (20,000 plants ha-1). During the first cycle, the water supplied in all plots was the same, while 8 different watering regimes were used during the second cycle. The suitability of the use of the leaf water potential to assess the water stress situations has also been investigated. Moreover, leaf biomass production and leaf area index (LAI) were estimated in both species in order to analyze the relationship between these parameters, irrigation dose and biomass production. The results shows that flooded soils have an adverse effect on elm survival in the implantation period, but the percentage of mortality is very low during the following vegetative periods and it shows a good ability of regrowth. The annual yield from a four-year cutting cycle was significantly greater than that from the three-year cutting cycle. Basal diameter and height are effective variables for predicting the production of total biomass; equations with R squared higher than 80% were obtained. The analysis of parameters having an influence on elm growth shows that soil type is the most important factor to obtain a good yield. In soils with enough nutrients and higher waterholding capacity, biomass productions of 8,000 kg ha-1 yr-1 were achieved even under rain-fed conditions. In irrigated plots, Siberian elm production was double than the production of biomass under rain-fed conditions; however, small differences were obtained between the 2 different irrigation doses under study. Biomass yield was greater for the highest planting density (6,666 plants ha–1) in irrigated plots, but significant differences were not found between the 2 densities in rain-fed plots. The clone AF-2 showed the highest production (14,000 kg ha-1 yr-1) during the first cycle, however during the second cycle its growth was lower because of a high mortality rate after regrowth and I-214 achieves the greatest production (14,000 kg ha-1 yr-1). An additional water supply provided a greater amount of biomass, but over about 6500 m3 ha-1 yr-1 of water the production is constant. Leaf water potential has been shown to be a useful tool for finding out plant water status. Irrigated elms hardly suffered water stress, while rain-fed elms suffered a pronounced water stress, which was more marked at the end of the vegetative period. Most of poplars did not show water stress; leaf water potentials only showed an important water stress in the plots irrigated with the lowest doses. LAI increases with shoot age and it ranges from 2 to 4 m2 m−2 in poplars and from 2 to 7 m2 m−2 in elms. A good relationship has been found between this index and Siberian elm production. In general, Siberian elm could be a good alternative to produce woody biomass in rainfed plots, while poplar could be used in irrigated plots if a suitable clone and irrigation dose are chosen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis presenta un nuevo método para filtrar errores en bases de datos multidimensionales. Este método no precisa ninguna información a priori sobre la naturaleza de los errores. En concreto, los errrores no deben ser necesariamente pequeños, ni de distribución aleatoria ni tener media cero. El único requerimiento es que no estén correlados con la información limpia propia de la base de datos. Este nuevo método se basa en una extensión mejorada del método básico de reconstrucción de huecos (capaz de reconstruir la información que falta de una base de datos multidimensional en posiciones conocidas) inventado por Everson y Sirovich (1995). El método de reconstrucción de huecos mejorado ha evolucionado como un método de filtrado de errores de dos pasos: en primer lugar, (a) identifica las posiciones en la base de datos afectadas por los errores y después, (b) reconstruye la información en dichas posiciones tratando la información de éstas como información desconocida. El método resultante filtra errores O(1) de forma eficiente, tanto si son errores aleatorios como sistemáticos e incluso si su distribución en la base de datos está concentrada o esparcida por ella. Primero, se ilustra el funcionamiento delmétodo con una base de datosmodelo bidimensional, que resulta de la dicretización de una función transcendental. Posteriormente, se presentan algunos casos prácticos de aplicación del método a dos bases de datos tridimensionales aerodinámicas que contienen la distribución de presiones sobre un ala a varios ángulos de ataque. Estas bases de datos resultan de modelos numéricos calculados en CFD. ABSTRACT A method is presented to filter errors out in multidimensional databases. The method does not require any a priori information about the nature the errors. In particular, the errors need not to be small, neither random, nor exhibit zero mean. Instead, they are only required to be relatively uncorrelated to the clean information contained in the database. The method is based on an improved extension of a seminal iterative gappy reconstruction method (able to reconstruct lost information at known positions in the database) due to Everson and Sirovich (1995). The improved gappy reconstruction method is evolved as an error filtering method in two steps, since it is adapted to first (a) identify the error locations in the database and then (b) reconstruct the information in these locations by treating the associated data as gappy data. The resultingmethod filters out O(1) errors in an efficient fashion, both when these are random and when they are systematic, and also both when they concentrated and when they are spread along the database. The performance of the method is first illustrated using a two-dimensional toymodel database resulting fromdiscretizing a transcendental function and then tested on two CFD-calculated, three-dimensional aerodynamic databases containing the pressure coefficient on the surface of a wing for varying values of the angle of attack. A more general performance analysis of the method is presented with the intention of quantifying the randomness factor the method admits maintaining a correct performance and secondly, quantifying the size of error the method can detect. Lastly, some improvements of the method are proposed with their respective verification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: evaluar las características de la práctica basada en la evidencia (PBE) en contexto asistencial; su efectividad sobre la sintomatología depresiva; las variables asociadas a la misma; y su eficiencia. Método: estudio retrospectivo sobre una muestra propositiva compuesta por 89 casos diagnosticados de trastorno depresivo mayor (80,9%) o de distimia (19,1%) en la Clínica Universitaria de Psicología de la UCM. Un 78,7% de los casos eran mujeres, y un 48,3% de los casos seguía un tratamiento farmacológico; la duración promedio del problema fue 30,9 meses y la puntuación promedio en el BDI-­‐II en el pretratamiento fue 33 puntos. Diversas variables fueron evaluadas para responder a los objetivos. Resultados: los pacientes recibieron un tratamiento individualizado y autocorrectivo basado sobre todo en psicoeducación, reestructuración cognitiva, activación conductual, técnicas de relajación, entrenamiento en solución de problemas y en habilidades sociales, durante unas 18 sesiones semanales. Un 35,96% de los pacientes terminó prematuramente la intervención, estando la adherencia a las técnicas y a las sesiones y el índice de severidad global del SCL-­‐90-­‐R asociados de modo significativo al abandono. En total, un 80,3% de los pacientes alcanzó un cambio clínicamente significativo de la sintomatología depresiva según el BDI-­‐II, y un 86,2% según el BAI. La reducción en las puntuaciones del BDI-­‐II se asoció con el entrenamiento en habilidades sociales; además, los pacientes más graves y los diagnosticados a partir del BDI-­‐II y el juicio clínico mejoraron más. El tratamiento fue coste – efectivo en relación a la intervención aplicada en Atención Primaria (AP): el coste directo promedio de incrementar un 1% el porcentaje de la muestra que experimentó recuperación en AP fue mayor que el tratamiento psicológico basado en la evidencia en un 34,9% (sólo tratamiento) o en un 11,0% (tratamiento más evaluación) Discusión: se constata para este estudio que los tratamientos aplicados desde la perspectiva de la PBE para la depresión son similares a los tratamientos empíricamente apoyados, especialmente a la terapia cognitiva de Beck, aunque adicionan elementos a partir del juicio del clínico, que en el caso de las técnicas de relajación y la solución de problemas no parecen contribuir a la mejoría. La efectividad de la intervención fue comparable a la hallada en contextos asistenciales o investigadores, con un porcentaje de abandonos elevado, pero consistente con lo hallado en otros centros universitarios. La ausencia de un efecto significativo de la duración de las intervenciones, y la evidencia de que los pacientes que terminan prematuramente el tratamiento se beneficiaron del mismo es consistente con un modelo de “nivel suficiente de funcionamiento” (GEL), según el cual los pacientes continúan en la intervención hasta que han mejorado lo bastante según su criterio. La generalizabilidad de los resultados del estudio es elevada de acuerdo a criterios estandarizados. Entre las limitaciones del estudio están la ausencia de seguimiento a largo plazo; el elevado número de valores perdidos; y la naturaleza archivística del estudio. Conclusiones: este estudio viene a reforzar la evidencia sobre la efectividad de la PBE para los trastornos depresivos. Adicionalmente, la PBE resultó más cara pero más eficiente en cuanto a costes directos que la intervención desarrollada en AP, sin que su efectividad se viera reducida en pacientes más graves o más crónicos. Además, existe aún margen para incrementar su eficiencia y competitividad. A partir de estos resultados, se recomienda prolongar la intervención psicológica hasta la obtención de mejoría; emplear la formulación de casos como un medio para reducir la duración del tratamiento y prescindir de elementos superfluos, enfatizando en cambio el abordaje de la temática interpersonal en la depresión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis trata de las llamadas relaciones de conformidad que pueden darse entre dos sistemas cualesquiera, especificación e implementación. Como novedad introduce el uso de técnicas coinductivas para la definición de iocos, una relación de conformidad capaz de distinguir el contexto local de ejecución de un proceso. Al constituir iocos la parte central de una nueva teoría de Model Based Testing (MBT), se precisa de una descripción formal de los sistemas en juego; esto se lleva a cabo en primera instancia mediante sistemas de transiciones etiquetadas y posteriormente mediante un enfoque más abstracto, un álgebra de procesos. Las teorías de testing tienen por objeto confirmar las relaciones de conformidad mediante la ejecución de un conjunto de tests sobre un sistema –la implementación– cuya estructura interna se desconoce. Particularmente los beneficios de un enfoque MBT son inmediatos, ya que la generación de los tests puede abordarse de manera sistemática una vez se disponga de un modelo formal de la especificación, lo que contribuye a eliminar el error imputable al factor humano; esto se logra dando un algoritmo generador de tests que toma cono entrada una especificación y produce un conjunto de tests, posiblemente infinito, suficientemente representativo para asegurar la relación de conformidad. Este enfoque inicial, conocido como testing offline o testing estático, es mejorado para ganar en eficiencia evitando un alto consumo en recursos tanto de tiempo como de memoria mediante la técnica de testing online o testing dinámico, donde ambos pasos de generación y ejecución se ejecutan de manera alternada...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La historia clínica electrónica se ha convertido actualmente en el elemento fundamental de los sistemas de documentación clínica. Con el paso de los años se han producido grandes avances en las tecnologías de los sistemas de información electrónica que han mejorado la capacidad de almacenamiento, de procesamiento y de representación de la información clínica. Sin embargo, uno de los principales problemas de registro electrónico sigue siendo mejorar la eficiencia de estos sistemas a la hora de introducir los datos de salud de los pacientes. Este trabajo pretende comparar la eficiencia de estos sistemas en la gestión diaria de una consulta monográfica de Suelo Pélvico en un Servicio de Medicina Física y Rehabilitación...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La liebre ibérica (Lepus granatensis) es una especie de gran valor en los ecosistemas mediterráneos españoles y por esta razón, su conocimiento ecológico y su relación con los factores que influyen en la heterogeneidad espacial son esenciales para su conservación y manejo. El objetivo de este trabajo es conocer las variaciones de la abundancia de la liebre ibérica en el Parque Natural de la Sierra de Mariola, situado entre las provincias de Alicante y Valencia, en el periodo 2009-2010, y su distribución en las principales matrices del paisaje de una zona de montaña del mediterráneo peninsular. Las abundancias relativas de liebre se han obtenido a partir de transectos estratificados de 1.000 m de longitud. El mayor índice kilométrico de abundancia (IKA) de liebres tiene lugar en primavera (IKA medio de 0,26 liebres/km), y disminuye hasta el invierno (IKA medio de 0,075 liebres/km). La mayor abundancia de liebres se obtiene en la matriz de cultivos de secano (IKA medio de 0,32 liebres/km). Las matrices de vegetación natural y abandono presentan bajo número de liebres, con valores de IKA medios de 0,06 y 0,04 liebres/km respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To review the scientific literature on pharmaceutical advertising aimed at health professionals in order to determine whether gender bias has decreased and the quality of information in pharmaceutical advertising has improved over time. Methods: We performed a content analysis of original articles dealing with medical drug promotion (1998-2008), according to quality criteria such as (a) the number, validity and accessibility of bibliographic references provided in pharmaceutical advertising and (b) the extent to which gender representations were consistent with the prevalence of the diseases. Databases: PUBMED, Medline, Scopus, Sociological Abstract, Eric and LILACS. Results: We reviewed 31 articles that analyzed advertising in medical journals from 1975-2005 and were published between 1998 and 2008. We found that the number of references used to support pharmaceutical advertising claims increased from 1975 but that 50% of these references were not valid. There was a tendency to depict men in paid productive roles, while women appeared inside the home or in non-occupational social contexts. Advertisements for psychotropic and cardiovascular drugs overrepresented women and men respectively. Conclusions: The use of bibliographic references increased between 1998 and 2008. However, representation of traditional male-female roles was similar in 1975 and 2005. Pharmaceutical advertisements may contribute to reinforcing the perception that certain diseases are associated with the most frequently portrayed sex.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo ha sido desarrollado en el Parque Natural de la Serra de Mariola, situado al Norte de la provincia de Alicante (SE de España). La superficie total del área de estudio es de 17.500 has. Se trata de una zona diversa formada por un área interior montañosa, con pequeñas cuencas dedicadas a la agricultura de secano. En este estudio se han obtenido datos acerca de las abundancias y la evolución de las poblaciones de jabalí desde los años 1980 a la actualidad. Toda esta información se incorporó a una base de datos SIG junto con otras capas de usos del suelo, estando todas ellas organizadas a nivel de cotos de caza (n=20). La mayor parte del Parque ha obtenido valores de idoneidad que oscilan entre valores medios a muy altos (80%), mientras que solamente una superficie reducida presenta valores bajos (14%) o muy bajos (6%). Por otro lado, el nivel de daños es menor en los cotos situados al sur del PN (40%) y en el resto de cotos el jabalí ocasiona daños, en ocasiones bastante (40%) o muy importantes (20%), sobre la vegetación silvestre, cultivos y sobre algunas especies animales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio tiene como objeto analizar la abundancia y distribución de la urraca en función de las diferentes matrices de usos del suelo y gradientes ambientales. Este trabajo se ha centrado en la Comarca de la Marina Baja (Alicante), una región con 578,8 Km² de superficie. La zona cuenta con una vegetación climática de carrascal de termotipo mesomediterráneo y ombrotipo seco y subhúmedo. Se han realizado un total de 396 transectos para estimar la abundancia de la urraca durante los años 2006-2008, en diferentes matrices del paisaje: natural, abandono, regadío y secano. Las abundancias relativas, la evolución de la especie, el efecto sobre otras especies de caza y el efecto que tiene el control poblacional de las urracas se ha obtenido de 21 encuestas realizadas a los gestores de los terrenos cinegéticos. El análisis de los resultados, muestra una mayor abundancia de los individuos en zonas de cultivo de secano (IKA=0.76 aves/km) y cultivos abandonados (IKA=0.73 aves/km), siendo los valores medios anuales cada vez mayores desde el inicio del muestreo. El análisis múltiple de regresión lineal de la abundancia de urraca con la matriz de usos del suelo muestra una relación significativa y positiva con el abandono antiguo (p<0.01), el frutal de secano y las zonas húmedas (p<0.05), mientras que no hay relación significativa (p>0.05) con los índices del paisaje. El análisis ANOVA muestra que las variables significativas influyentes sobre el número de urracas son: matriz de usos del suelo, latitud/ombroclima, continentalidad y la interacción usos del suelo:continentalidad (p<0.05). La urraca ha experimentado un aumento en sus poblaciones desde principios de la primera década del actual siglo. Los cotos que realizan un control sobre la población de urracas tienen un efecto positivo que se ve reflejado en la menor afección sobre otras especies cinegéticas.