939 resultados para Procesamiento digital de voz
Resumo:
A nivel mundial, el cáncer de mama es el tipo de cáncer más frecuente además de una de las principales causas de muerte entre la población femenina. Actualmente, el método más eficaz para detectar lesiones mamarias en una etapa temprana es la mamografía. Ésta contribuye decisivamente al diagnóstico precoz de esta enfermedad que, si se detecta a tiempo, tiene una probabilidad de curación muy alta. Uno de los principales y más frecuentes hallazgos en una mamografía, son las microcalcificaciones, las cuales son consideradas como un indicador importante de cáncer de mama. En el momento de analizar las mamografías, factores como la capacidad de visualización, la fatiga o la experiencia profesional del especialista radiólogo hacen que el riesgo de omitir ciertas lesiones presentes se vea incrementado. Para disminuir dicho riesgo es importante contar con diferentes alternativas como por ejemplo, una segunda opinión por otro especialista o un doble análisis por el mismo. En la primera opción se eleva el coste y en ambas se prolonga el tiempo del diagnóstico. Esto supone una gran motivación para el desarrollo de sistemas de apoyo o asistencia en la toma de decisiones. En este trabajo de tesis se propone, se desarrolla y se justifica un sistema capaz de detectar microcalcificaciones en regiones de interés extraídas de mamografías digitalizadas, para contribuir a la detección temprana del cáncer demama. Dicho sistema estará basado en técnicas de procesamiento de imagen digital, de reconocimiento de patrones y de inteligencia artificial. Para su desarrollo, se tienen en cuenta las siguientes consideraciones: 1. Con el objetivo de entrenar y probar el sistema propuesto, se creará una base de datos de imágenes, las cuales pertenecen a regiones de interés extraídas de mamografías digitalizadas. 2. Se propone la aplicación de la transformada Top-Hat, una técnica de procesamiento digital de imagen basada en operaciones de morfología matemática. La finalidad de aplicar esta técnica es la de mejorar el contraste entre las microcalcificaciones y el tejido presente en la imagen. 3. Se propone un algoritmo novel llamado sub-segmentación, el cual está basado en técnicas de reconocimiento de patrones aplicando un algoritmo de agrupamiento no supervisado, el PFCM (Possibilistic Fuzzy c-Means). El objetivo es encontrar las regiones correspondientes a las microcalcificaciones y diferenciarlas del tejido sano. Además, con la finalidad de mostrar las ventajas y desventajas del algoritmo propuesto, éste es comparado con dos algoritmos del mismo tipo: el k-means y el FCM (Fuzzy c-Means). Por otro lado, es importante destacar que en este trabajo por primera vez la sub-segmentación es utilizada para detectar regiones pertenecientes a microcalcificaciones en imágenes de mamografía. 4. Finalmente, se propone el uso de un clasificador basado en una red neuronal artificial, específicamente un MLP (Multi-layer Perceptron). El propósito del clasificador es discriminar de manera binaria los patrones creados a partir de la intensidad de niveles de gris de la imagen original. Dicha clasificación distingue entre microcalcificación y tejido sano. ABSTRACT Breast cancer is one of the leading causes of women mortality in the world and its early detection continues being a key piece to improve the prognosis and survival. Currently, the most reliable and practical method for early detection of breast cancer is mammography.The presence of microcalcifications has been considered as a very important indicator ofmalignant types of breast cancer and its detection and classification are important to prevent and treat the disease. However, the detection and classification of microcalcifications continue being a hard work due to that, in mammograms there is a poor contrast between microcalcifications and the tissue around them. Factors such as visualization, tiredness or insufficient experience of the specialist increase the risk of omit some present lesions. To reduce this risk, is important to have alternatives such as a second opinion or a double analysis for the same specialist. In the first option, the cost increases and diagnosis time also increases for both of them. This is the reason why there is a great motivation for development of help systems or assistance in the decision making process. This work presents, develops and justifies a system for the detection of microcalcifications in regions of interest extracted fromdigitizedmammographies to contribute to the early detection of breast cancer. This systemis based on image processing techniques, pattern recognition and artificial intelligence. For system development the following features are considered: With the aim of training and testing the system, an images database is created, belonging to a region of interest extracted from digitized mammograms. The application of the top-hat transformis proposed. This image processing technique is based on mathematical morphology operations. The aim of this technique is to improve the contrast betweenmicrocalcifications and tissue present in the image. A novel algorithm called sub-segmentation is proposed. The sub-segmentation is based on pattern recognition techniques applying a non-supervised clustering algorithm known as Possibilistic Fuzzy c-Means (PFCM). The aim is to find regions corresponding to the microcalcifications and distinguish them from the healthy tissue. Furthermore,with the aim of showing themain advantages and disadvantages this is compared with two algorithms of same type: the k-means and the fuzzy c-means (FCM). On the other hand, it is important to highlight in this work for the first time the sub-segmentation is used for microcalcifications detection. Finally, a classifier based on an artificial neural network such as Multi-layer Perceptron is used. The purpose of this classifier is to discriminate froma binary perspective the patterns built from gray level intensity of the original image. This classification distinguishes between microcalcifications and healthy tissue.
Resumo:
La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.
Resumo:
Este proyecto se basa en la integración de funciones optimizadas de OpenHEVC en el códec Reconfigurable Video Coding (RVC) - High Efficiency Video Coding (HEVC). RVC es un framework capaz de generar automáticamente el código que implementa cualquier estándar de video mediante el uso de librerías. Estas librerías contienen la definición de bloques funcionales de los que se componen los distintos estándares de video a implementar. Sin embargo, como desventaja a la facilidad de creación de estándares utilizando este framework, las librerías que utiliza no se encuentran optimizadas. Por ello se pretende que el códec RVC-HEVC sea capaz de realizar llamadas a funciones optimizadas, que para el estudio éstas se encontrarán en la librería OpenHEVC. Por otro lado, estos codificadores de video se pueden encontrar implementados tanto en PCs como en sistemas embebidos. Los Digital Signal Processors (DSPs) son unas plataformas especializadas en el procesamiento digital, teniendo una alta velocidad en el cómputo de operaciones matemáticas. Por ello, para este proyecto se integrará RVC-HEVC con las llamadas a OpenHEVC en una plataforma DSP como la TMS320C6678. Una vez completa la integración se efectuan medidas de eficiencia para ver cómo las llamadas a funciones optimizadas mejoran la velocidad en la decodificación de imágenes. ABSTRACT. This project is based in the integration of optimized functions from OpenHEVC in the RVC-HEVC (Reconfigurable Video Coding- High Efficiency Video Coding) codec. RVC is a framework capable of generating automatically any type of video standard with the use of libraries. Inside these libraries there are the definitions of the functional blocks which make up the different standards, in which for the case of study will be the HEVC standard. Nevertheless, as a downside for the simplicity in producing standards with the RVC tool, these libraries are not optimized. Thus, one of the goals for the project will be to make the RVC-HEVC call optimized functions, in which in this case they will be inside the OpenHEVC library. On the other hand, these video encoders can be implemented both in PCs and embedded systems. The DSPs (Digital Signal Processors) are platforms specialized in digital processing, being able to compute mathematical operations in a short period of time. Consequently, for this project the integration of the RVC-HEVC with calls to the OpenHEVC library will be done in a DSP platform such as a TMS320C6678. Once completed the integration, performance measures will be carried out to evaluate the improvement in the decoding speed obtained when optimized functions are used by the RVC-HEVC.
Resumo:
Los procesadores tradicionales de un solo núcleo han tenido que enfrentarse a grandes desafíos para poder mejorar su rendimiento y eficiencia energética. Mientras tanto, el rápido avance de las tecnologías de fabricación ha permitido la implementación de varios procesadores en un solo chip, ofreciendo un alto rendimiento y eficiencia energética. Éstos son los llamados procesadores multinúcleo. El objetivo de este proyecto es realizar un sistema multiprocesador para el procesamiento digital de señales de radio. Este sistema multiprocesador puede ser implementado en una tarjeta de prototipado. Para ello se ha utilizado el softcore MB-Lite y el sistema operativo en tiempo real FreeRTOS. ABSTRACT. Traditional single-core processors have faced great challenges to improve their performance and energy efficiency. Meanwhile, rapid advancing fabrication technologies have enabled the implementation of several processors in a single chip, providing high performance and energy efficiency. These are called multi-core processors. The aim of this project is to perform a multiprocessor system for digital radio signal processing. This multiprocessor system can be implemented in a general purpose prototyping card using. To achieve this project, the MB-Lite softcore and the FreeRTOS real time operating system have been used.
Resumo:
La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Se va a realizar un estudio de la codificación de imágenes sobre el estándar HEVC (high-effiency video coding). El proyecto se va a centrar en el codificador híbrido, más concretamente sobre la aplicación de la transformada inversa del coseno que se realiza tanto en codificador como en el descodificador. La necesidad de codificar vídeo surge por la aparición de la secuencia de imágenes como señales digitales. El problema principal que tiene el vídeo es la cantidad de bits que aparecen al realizar la codificación. Como consecuencia del aumento de la calidad de las imágenes, se produce un crecimiento exponencial de la cantidad de información a codificar. La utilización de las transformadas al procesamiento digital de imágenes ha aumentado a lo largo de los años. La transformada inversa del coseno se ha convertido en el método más utilizado en el campo de la codificación de imágenes y video. Las ventajas de la transformada inversa del coseno permiten obtener altos índices de compresión a muy bajo coste. La teoría de las transformadas ha mejorado el procesamiento de imágenes. En la codificación por transformada, una imagen se divide en bloques y se identifica cada imagen a un conjunto de coeficientes. Esta codificación se aprovecha de las dependencias estadísticas de las imágenes para reducir la cantidad de datos. El proyecto realiza un estudio de la evolución a lo largo de los años de los distintos estándares de codificación de video. Se analiza el codificador híbrido con más profundidad así como el estándar HEVC. El objetivo final que busca este proyecto fin de carrera es la realización del núcleo de un procesador específico para la ejecución de la transformada inversa del coseno en un descodificador de vídeo compatible con el estándar HEVC. Es objetivo se logra siguiendo una serie de etapas, en las que se va añadiendo requisitos. Este sistema permite al diseñador hardware ir adquiriendo una experiencia y un conocimiento más profundo de la arquitectura final. ABSTRACT. A study about the codification of images based on the standard HEVC (high-efficiency video coding) will be developed. The project will be based on the hybrid encoder, in particular, on the application of the inverse cosine transform, which is used for the encoder as well as for the decoder. The necessity of encoding video arises because of the appearance of the sequence of images as digital signals. The main problem that video faces is the amount of bits that appear when making the codification. As a consequence of the increase of the quality of the images, an exponential growth on the quantity of information that should be encoded happens. The usage of transforms to the digital processing of images has increased along the years. The inverse cosine transform has become the most used method in the field of codification of images and video. The advantages of the inverse cosine transform allow to obtain high levels of comprehension at a very low price. The theory of the transforms has improved the processing of images. In the codification by transform, an image is divided in blocks and each image is identified to a set of coefficients. This codification takes advantage of the statistic dependence of the images to reduce the amount of data. The project develops a study of the evolution along the years of the different standards in video codification. In addition, the hybrid encoder and the standard HEVC are analyzed more in depth. The final objective of this end of degree project is the realization of the nucleus from a specific processor for the execution of the inverse cosine transform in a decoder of video that is compatible with the standard HEVC. This objective is reached following a series of stages, in which requirements are added. This system allows the hardware designer to acquire a deeper experience and knowledge of the final architecture.
Resumo:
La determinación experimental in situ del escurrimiento superficial en cauces naturales (mediante aforos) en forma sistemática permite lograr una mayor eficiencia en la gestión del recurso hídrico en una cuenca determinada. Además, la determinación precisa de los caudales es relevante para el diseño sustentable de infraestructura hídrica (puentes, canalizaciones, etc.) debido en parte a que el sobredimensionamiento de las obras genera un impacto innecesario sobre el medio ambiente, además de que resulta antieconómico. Además, la subestimación de las obras a diseñar provoca fallos con resultados catastróficos con alto impacto sobre la sociedad y el medio ambiente, ya sea por la pérdida de vidas humanas como de bienes públicos y privados. En los últimos años se ha incrementado el instrumental disponible para la cuantificación experimental de caudales de agua superficial en cauces naturales con tecnología que permite caracterizar el flujo de agua con mayor resolución espacial y temporal. Específicamente, el empleo de la anemometría acústica basada en el efecto Doppler (que utiliza el principio físico del cambio de frecuencia ante el rebote acústico que produce una partícula transportada por el flujo) se ha tornado actualmente una práctica universal en hidráulica fluvial y está reemplazando a las metodologías convencionales como por ejemplo el uso de molinetes. El instrumento acústico utilizado comúnmente en el caso de mediciones en campo, es el ADCP (Acoustic Doppler Current Profiler). Por otra parte desde hace algunos años se están desarrollando metodologías experimentales que permiten medir el campo de velocidades del flujo en manera instantánea y con alta resolución espacial mediante el procesamiento digital de imágenes. Dentro de estos métodos se destaca el de velocimetría por seguimiento de partículas PTV (Particle Tracking Velocimetry) de reciente aplicación a nivel mundial en mediciones de campo. Sobre esta base, se considera un desafío tecnológico la implementación en nuestra provincia de estas modernas tecnologías, ya validadas en el ámbito de la Universidad Nacional de Córdoba para la obtención precisa de registros de caudales en cauces naturales. Mediante este proyecto de transferencia de los resultados de investigación y comunicación pública de la ciencia, el grupo de Investigación del CETA - FCEFyN -UNC realizará un "Programa de capacitación y actualización en modernas técnicas experimentales para medición de caudales de aguas superficiales en cauces naturales" que incluye los recientes avances observados en la temática. La Secretaría de Recursos Hídricos del Ministerio de Agua, Ambiente y Energía de la Provincia de Córdoba será beneficiada y se fortalecerá en una de sus principales funciones que es: "procurar el fortalecimiento de redes de mediciones o monitoreo sistemático a través de programas de cooperación técnica y presupuestaria con entidades provinciales y nacionales -públicas o privadas-, prestatarias de obras y servicios públicos y los usuarios del agua, manteniendo un sistema de información provincial sobre las variables meteorológicas y el recurso hídrico con el objeto de procesar su flujo en forma permanente".
Resumo:
User embracement has been proposed as a tool that contributes to humanize the nursing, to increase the users’ access to the services, to ensure the resolvability of claims, to organize the services and promote the strengthening of the links between them and the health professionals. In the city of Recife, this practice has been fomented by the municipal government and its implementation is guided by normative acts, with evaluation matrices and proposition of goals, based on a model created by the public administration. This study intended to analyze the relation between the prescribed user embracement and the real one and their interferences with the relations of reciprocity between workers and users in the health units of basic attention in Recife. Four units of the Family Health Strategy at the Sanitary District IV of the city of Recife – PE were taken as an investigation field. The investigation had a qualitative character, so, Interviews were performed involving professionals and users whose speeches were recorded by the voice digital mode and literally transcript. The obtained speeches were analyzed mostly through the Discourse of the Collective Subject methodological approach, being also used, but on a smaller scale, the technique of thematic analysis, in the dialogic way, with theoretical contributions and official documents related to the theme. The results pointed that in most of the health units the professionals execute the proposed protocols and consider that these have a positive influence for the working process in user embracement, however, factors such as the excessive demand, the physical structure of the units, little resolvability of the reference network, singularities of the units, among others, have appeared, hampering the accomplishment of the prescribed, creating, thus, a negative influence on the working process of the user embracement. The reciprocal relations have also suffered the influences of these factors, which made difficult, therefore, the circulation of gift. Meanwhile, other factors such as access, resolvability, sheltering attitude and responsabilization, potentiated the reciprocal exchange between professionals and users. The findings demand the prescriptive acts and the reciprocal relations of the user embracement to be directly influenced by the singularities present in each community, by the human variabilities and by factors connected to the structure and working process, so it shall be operated with caution in order to provide a real user embracement with quality
Resumo:
69 p.
Resumo:
El Páramo de Guerrero ha venido sufriendo rápidas y profundas transformaciones en los últimos sesenta años. Este páramo hace parte de los ecosistemas estratégicos del país, incorpora los municipios de Zipaquirá, Cogua y Tausa. Su localización cercana a la capital del país, ha incidido en las formas como las sociedades lo han apropiado a través del tiempo, con destino al hábitat y a la producción. En los últimos años evidencia tendencias hacia la reprimarización de su economía; donde la explotación de sus recursos naturales, de sus servicios ecosistémicos; el uso intensivo del suelo para la producción papera (bajo el modelo de la revolución verde); la pradización; la pequeña minería de carbón y de materiales para construcción, interactúan en un conflicto permanente con los espacios de conservación, aún presentes en esta área. En este contexto, la investigación buscaba caracterizar los conflictos –conservación vs reprimarización- presentes en este ecosistema estratégico y evaluar los impactos de los mismos. Los métodos utilizados en la presente investigación fueron: Técnicas de procesamiento digital de toma de información temática.Métodos y técnicas de análisis espacial dinámico para la comprensión de las transformaciones derivadas de los procesos económicos presentes en el área.Métodos y técnicas de análisis de biodiversidad y fragmentaciónTalleres con comunidad para caracterización de las transformaciones de los recursos naturales, de la zona objeto de estudio.Trabajo con información catastral a nivel municipal.Manejo de censos agropecuarios municipalesRecorridos de campo Aportes principales. Los aportes más relevantes que se derivaron del proceso investigativo fueron: En el orden metodológico, se entregaron herramientas para el análisis espacial dinámico.Se obtuvieron estrategias metodológicas para el trabajo interdisciplinario, como mecanismo para el abordaje integral de conflictos en ecosistemas estratégicos. De igual manera la respuesta a dicha complejidad amerita la misma metodología.Se entregaron los procesos de transformación que se han operado en el Páramo de Guerrero en los últimos 60 años, derivados de la tipología de actividades económicas desarrolladas en dichas áreas.Se identificaron y caracterizaron los procesos de reprimarización que evidencia actualmente el Páramo de Guerrero y sus implicaciones en la conservación.Se entregaron elementos para el diseño de política ambiental dirigida a definir los espacios de conservación-recuperación y los límites de las áreas para la producción, que hagan posible el desarrollo de las comunidades ancestralmente asentadas en dichos territorios. Los resultados de la investigación se constituyen en elementos fundamentales para las administraciones municipales.
Resumo:
A Nova Lei de Diretrizes e Bases da Educação Brasileira (LDB 9.394/96) prevê que a educação superior promova criticidade, reflexibilidade, correlação de saberes, mas também o incentivo ao trabalho de pesquisa e investigação científica, visando ao desenvolvimento da ciência e da tecnologia e da criação e difusão da cultura e, desse modo, desenvolver o entendimento do homem e do meio em que vive. (Artigo 43, inciso III). Entretanto, pouco se ouve sobre essas questões a partir da voz do orientador de pesquisas acadêmicas, o que esta pesquisadora considera um problema de ordem social, tendo em vista a importância desses atores sociais para o campo acadêmico. Os poucos trabalhos que abordam o tema limitam-se a identificar o orientador a partir das impressões empíricas dos orientandos e a refletir as atuações a partir de questões político-educacionais (FLECHA, 2003; MAZZILLI, 2003; BIANCHETTI & MACHADO, 2006). Neste sentido, o presente trabalho procura responder, através da Análise Crítica do Discurso (ACD), o que os orientadores têm a dizer sobre sua prática social. De caráter interpretativo (ALVEZ-MAZZOTTI, 1999), conta com dados gerados por orientadores de mestrado em Linguística/Linguística Aplicada, das esferas federal, estadual e privada, do Rio de janeiro, sendo dois participantes de cada esfera. Na primeira etapa, os sujeitos responderam a uma entrevista semiestruturada. A segunda etapa consta de: a) um questionário; b) correspondências eletrônicas; c) os regimentos dos programas de pós-graduação; e d) revisão histórica da orientação no Brasil. O caráter social deste estudo é a relação dialética entre linguagem e sociedade, já que a ACD considera qualquer evento discursivo ao mesmo tempo um texto (primeira dimensão), uma prática discursiva (segunda dimensão) e uma prática social (terceira dimensão): o modelo tridimensional (FAIRCLOUGH, 2001). O Sistema de Transitividade da LSF pautou a análise da primeira dimensão, confirmando outros estudos sobre o ranking da recorrência dos processos (LIMA LOPES, 2001). A interpretação dessa primeira dimensão aponta que os orientadores atuam na idiossincrasia, e que os principais atores sociais desse fazer são o orientador e o orientando, em relação assimétrica de poder. Na segunda dimensão, a interdiscursividade reforça essa idiossincrasia, mas inclui as pressões institucionais, que agem como reguladoras desse fazer. Na terceira dimensão, os resultados sugerem que aspectos históricos justificam a queda da qualidade dos mestrandos, associando a isso um interesse político, e as características da pós-modernidade a uma nova e híbrida atuação. Além disso, os resultados apontam para um discurso de resistência à hegemonia nas três dimensões de análise. A pesquisa possibilitou ainda a discussão em torno de aspectos práticos: a) a reflexão dos sujeitos sobre seus papeis e atribuições; e b) a atualização do aporte teórico, aplicado a um tema ainda pouco explorado. Deste trabalho, fica um convite a novas pesquisas sobre o discurso do orientador, trazendo à tona não apenas sua voz, conforme a fala literal de um dos entrevistados, mas também contribuições diretas e significativas aos estudos em Linguística e Linguística Aplicada no Brasil
Resumo:
A presente tese analisa as representações atuais nos discursos de mulheres negras das camadas pobres urbanas do Rio de Janeiro, assim como suas relações sociais entre o gênero masculino e feminino na atualidade. Focaliza esta discussão de gênero, em torno de temas como: família, relações de trabalho, participação social, emancipação da mulher e direitos. A partir de pesquisa empírica de histórias de vida buscamos analisar, comparativamente, as expectativas, os estereótipos, os problemas e as conquistas das mulheres de diferentes gerações. Verifica o que elas relatam ter mudado ou que permaneceu imutável na relação entre mulheres e homens: diferenças e semelhanças, conflitos e contradições e os seus anseios sociais presentes nas suas histórias e memória. Busca compreender como as mulheres negras estão lidando com as rápidas mudanças que afetam os papéis de gênero, analisando como se dá a convivência entre arquétipos considerados tradicionais e os modernos modelos de masculinidade e feminilidade. Destas diferenças trata esta tese. Especificamente, das relações sociais da mulher negra na religião, no trabalho, na família e na política, espaços que delimitado e que nos propomos debater. Quando as mulheres têm voz? É uma provocação para refletir sobre o tema a partir da memória de três mulheres nascidas entre a década de vinte e trinta que conquistaram espaços expressivos apesar das dificuldades postas às mulheres desta época. Á nossa pergunta é atribuído um significado de poder de participação e expressão que dialoga com mulheres no anonimato sem voz, que estão trabalhando para garantir a sobrevivência, são moradoras das periferias ou morros, estudantes de escolas públicas e mulheres donas-de-casa, mas que querem ter voz. A temática da mulher negra nos remete ao artifício da colonização, ao processo de dominação e sujeição, à memória de culto, a deuses, aos antepassados, à cultura, à história de vencedores e vencidos. As histórias das mulheres negras trazem em si a extensão da colonização. A memória individual existe sempre a partir de uma memória coletiva e a origem de várias idéias, reflexões, sentimentos e paixões que atribuímos a nós são, na verdade, inspiradas pelo grupo.
Resumo:
A articulação entre a psicanálise e a música, mais especificamente a produzida a partir do paradigma de Arnold Schönberg, renovado por John Cage, se mostra emblemática para pensar a constituição do sujeito em Sigmund Freud e Jacques Lacan, bem como para refletir sobre a escuta clínica, o ato analítico enquanto poético, e a escrita pulsional do sujeito como resposta à invocação da voz. O momento de estruturação do sujeito implica a dimensão de musicalidade da linguagem que permite o ato da fala. O sujeito nasce em um ponto em que o significante (simbólico) escreve no real do corpo um possível, um começo, uma marca que invoca uma nota e uma letra, sendo estes os dois aspectos da linguagem: a musicalidade (continuidade) e a fala (descontinuidade em movimento). Este ponto escreve e cria um vazio no sujeito que está e estará sempre em pulsação. Se o real grita caoticamente, é possível que se cante e se musique a vida com a criação de notas singulares, efeito do movimento desejante e de uma escrita pelo circuito da pulsão invocante na partitura já dada pelo Outro e face aos encontros com pedaços de real. A música tem a capacidade de retirar o sujeito de uma surdez de seu próprio desejo, o convocando a recriar a linguagem por seus atos. O paradigma de Schönberg, bem como a música criada a partir deste momento, nos dá a ouvir um saber-fazer com a voz no qual a dimensão equivocante (de equivoco e de invocação) da linguagem pode ressurgir por uma via nova. A transmissão de um saber-fazer com o objeto voz por ele efetuado se apresenta como uma radicalização do efeito de verdade do real, ressoando borromeanamente sobre o simbólico e o imaginário, invocando o momento originário do sujeito, de um começo sempre a recomeçar, que se faz ouvir como uma invocação de musicar a vida de uma maneira ética, estética e poética. É através dos eixos acima expostos que nos é possível sustentar, com Lacan, uma prática clínica orientada para além da repetição em direção a um significante novo. Trata-se de uma orientação que parte dos encontros com o real aos quais o sujeito é confrontado ao acaso visando o movimento renascente pelo qual ele pode re-escutar o inaudito do real contínuo perdido, o que faz com que seu ritmo singular possa ser, uma vez mais e de modo inédito, reinventado. A psicanálise pode ser, portanto, entendida como uma prática invocante, como uma abertura para que o sujeito possa, com entusiasmo, musicar a vida.