53 resultados para Orina-Análisis y patología
Resumo:
La erosión hídrica en España es un problema grave, por las consecuencias que comporta en términos de pérdida del recurso suelo, sobre el que se sustenta la vida. Desde la década de los años ochenta del pasado siglo, la Administración Central ha realizado dos inventarios de erosión del suelo a nivel nacional: Los Mapas de Estados Erosivos (MEEs) y el Inventario Nacional de Erosión del Suelo (INES). En la presente Tesis Doctoral se han abordado las siguientes cuestiones: - Se ha profundizado en el análisis y aplicación de nuevas herramientas en la estimación del factor topográfico y del factor vegetación, que intervienen en los modelos de cálculo de las pérdidas de suelo, para mejorar la precisión en los resultados de la estimación de las tasas de erosión con los mismos. - Se ha establecido un procedimiento que permita realizar un inventario continuo de los Estados Erosivos de España, fijando como premisa el tiempo para su actualización. La Tesis desarrolla un procedimiento que permite comprobar que, la precisión utilizada en la cartografía base para determinar el factor vegetación y el factor topográfico del modelo USLE, influye en los resultados de la estimación de las tasas de erosión. También se ha realizado un estudio multi-temporal, analizado cuatro períodos: desde 1982 a 2014, con el fin de investigar las posibilidades de implementar un inventario continuo de los Estados Erosivos a nivel nacional; utilizando sensores remotos y técnicas de teledetección como herramienta para la actualización de los usos del suelo, factor determinante para estudiar la evolución de las tasas de erosión a lo largo del tiempo. Los resultados obtenidos de las investigaciones mencionadas, se han aplicado al tramo medio de la cuenca del río Jarama en la provincia de Guadalajara y han permitido comprobar que, la precisión de los datos utilizados en la aplicación del modelo USLE, influyen de una forma determinante en la estimación de las tasas de erosión y, además, hacen posible que la metodología, propuesta en esta Tesis, contribuya a establecer un inventario continuo de la evolución de los Estados Erosivos en un espacio multitemporal y a nivel de escenarios que abarcan una gran superficie. Gracias a este inventario se ha podido aportar información de la evolución de la cubierta vegetal y las pérdidas de suelo en la zona de estudio en el período analizado 1984-2015. ABSTRACT Water erosion in Spain is a serious problem and the consequences in terms of loss of soil resources on which life is based. Since the early eighties of last century, the central government has made two inventories of soil erosion nationwide: Maps of Erosive States (MEES) and the National Inventory of Soil Erosion (INES). In this Doctoral Thesis we have addressed the following issues: - It has deepened in the analysis and implementation of new tools in estimating the topographic factor and vegetation factor involved in the calculation models of soil loss, to improve accuracy in the results of the estimation of rates erosion therewith. - It has established a procedure allowing a continuous inventory of Erosion States of Spain, setting premised time for update. The thesis develops a method that allows to check that the precision used in the base map to determine the vegetation factor and topographical factor USLE model, influences the results of estimating erosion rates. There has also develop a multi-temporal study analyzed four periods: from 1982-2014, in order to investigate the possibilities of implementing a continuous inventory of erosion states at national level; using remote sensing techniques as a tool for updating land use, determining to study the evolution of erosion rates along the time factor. The results of the investigations referred to, have been applied to area around the middle reach of the Jarama river basin in the province of Guadalajara and would have shown that the accuracy of the data used in the model application USLE influence of decisive way estimating erosion rates and also make it possible that the methodology proposed in this thesis, help establish a continuous inventory of the evolution of erosive states in a multi-temporal space and level scenarios covering a large area. Thanks to this inventory was it able to provide information on the evolution of the vegetation cover and soil loss in the study area in the analyzed period 1984-2015.
Resumo:
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y optimización de redes topográficas, observadas mediante topografía convencional (no satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la definición de la geometría más fiable y precisa, en función de la orografía del terreno donde se tenga que ubicar. En primer lugar se realizará un estudio de la metodología del ajuste mediante mínimos cuadrados y la propagación de varianzas, para posteriormente analizar su dependencia de la geometría que adopte la red. Será imprescindible determinar la independencia de la matriz de redundancia (R) de las observaciones y su total dependencia de la geometría, así como la influencia de su diagonal principal (rii), números de redundancia, para garantizar la máxima fiabilidad interna de la misma. También se analizará el comportamiento de los números de redundancia (rii) en el diseño de una red topográfica, la variación de dichos valores en función de la geometría, analizando su independencia respecto de las observaciones así como los diferentes niveles de diseño en función de los parámetros y datos conocidos. Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible. Aunque el tratamiento del diseño esté basado en un sistema bidimensional se estudiará la posibilidad de incorporar un modelo digital de superficie (MDS); esto permitirá a la hora de diseñar el emplazamiento de los vértices de la red la viabilidad de las observaciones en función de la orografía y los elementos, tanto naturales como artificiales, que sobre ella estén ubicados. Este sistema proporcionaría, en un principio, un diseño óptimo de una red constreñida, atendiendo a la fiabilidad interna y a la precisión final de sus vértices, teniendo en cuenta la orografía, lo que equivaldría a resolver un planteamiento de diseño en dos dimensiones y media1; siempre y cuando se dispusiera de un modelo digital de superficie o del terreno. Dado que la disponibilidad de obtener de manera libre el MDS de las zonas de interés del proyecto, hoy en día es costoso2, se planteará la posibilidad de conjuntar, para el estudio del diseño de la red, de un modelo digital del terreno. Las actividades a desarrollar en el trabajo de esta tesis se describen en esta memoria y se enmarcan dentro de la investigación para la que se plantean los siguientes objetivos globales: 1. Establecer un modelo matemático del proceso de observación de una red topográfica, atendiendo a todos los factores que intervienen en el mismo y a su influencia sobre las estimaciones de las incógnitas que se obtienen como resultado del ajuste de las observaciones. 2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados, aplicando técnicas de diseño y simulación sobre el modelo anterior. 3. Presentar una formulación explícita y rigurosa de los parámetros que valoran la fiabilidad de una red topográfica y de sus relaciones con el diseño de la misma. El logro de este objetivo se basa, además de en la búsqueda y revisión de las fuentes, en una intensa labor de unificación de notaciones y de construcción de pasos intermedios en los desarrollos matemáticos. 4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y viabilidad de las mismas, instrumental y metodología de estacionamiento) como criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se aborda. 5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación que sea capaz de contemplar las variables planteadas en el apartado anterior en el problema del diseño y simulación de redes topográficas, contemplando el modelo digital de superficie. Podrían considerarse como objetivos secundarios, los siguientes apartados: Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con los propios del diseño. Implementar en la aplicación informática la posibilidad de variación, por parte del usuario, de los criterios de cobertura de los parámetros (distribución normal o t de Student), así como los grados de fiabilidad de los mismos ABSTRACT The overall purpose of this work is the analysis of the techniques of design and optimization for geodetic networks, measured with conventional survey methods (not satellite), the development and implementation of a computational system capable to help on the definition of the most liable and accurate geometry, depending on the land orography where the network has to be located. First of all, a study of the methodology by least squares adjustment and propagation of variances will be held; then, subsequently, analyze its dependency of the geometry that the network will take. It will be essential to determine the independency of redundancy matrix (R) from the observations and its absolute dependency from the network geometry, as well as the influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure maximum re liability of the network. It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network design, then the variation of these values depending on the geometry with the analysis of its independency from the observations, and finally the different design levels depending on parameters and known data. It should be stated that network optimization, according to exposed criteria, is subject to the accessibility of the network points. In addition, common visibility among network points, which of them are connected with observations, has to be considered. All these situations depends essentially on the terrain relief and the natural or artificial obstacles that should exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better a digital surface model (DSM), not always available. Although design treatment is based on a bidimensional system, the possibility of incorporating a digital surface model (DSM) will be studied; this will allow evaluating the observations feasibility based on the terrain and the elements, both natural and artificial, which are located on it, when selecting network point locations. This system would provide, at first, an optimal design of a constrained network, considering both the internal reliability and the accuracy of its points (including the relief). This approach would amount to solving a “two and a half dimensional”3 design, if a digital surface model is available. As the availability of free DSM4 of the areas of interest of the project today is expensive, the possibility of combining a digital terrain model will arise. The activities to be developed on this PhD thesis are described in this document and are part of the research for which the following overall objectives are posed: 1. To establish a mathematical model for the process of observation of a survey network, considering all the factors involved and its influence on the estimates of the unknowns that are obtained as a result of the observations adjustment. 2. To develop a system to optimize a survey network results, applying design and simulation techniques on the previous model. 3. To present an explicit and rigorous formulation of parameters which assess the reliability of a survey network and its relations with the design. The achievement of this objective is based, besides on the search and review of sources, in an intense work of unification of notation and construction of intermediate steps in the mathematical developments. 4. To develop an overview of the influence on the network design of six major factors (posterior accuracy, observations reliability, viability of observations, instruments and station methodology) as optimization criteria, in order to define the subject approached on this document. 5. To elaborate and program the algorithms needed to develop an application software capable of considering the variables proposed in the previous section, on the problem of design and simulation of surveying networks, considering the digital surface model. It could be considered as secondary objectives, the following paragraphs: To develop the necessary algorithms to interrelate the digital terrain model with the design ones. To implement in the software application the possibility of variation of the coverage criteria parameters (normal distribution or Student t test) and therefore its degree of reliability.
Resumo:
El concepto de SIGP está referido al uso de la tecnología para integrar el conocimiento experto con el conocimiento experimentado en el ámbito de un proyecto. La tecnología permite la gestión, análisis y representación de grandes volúmenes de datos con proyección territorial, facilitando la comprensión de las múltiples variables que influyen en los procesos de toma de decisiones. Los SIGP presentan fortalezas y riesgos que han generado estudios de mejora de la práctica, asociados frecuentemente a aplicaciones online. El elemento fundamental de éxito es la participación, definida atendiendo al propósito, personas involucradas y forma de aplicación. En los proyectos de desarrollo rural, la aplicación de los SIGP debe tener como objetivo el desarrollo sostenible. Para ello la participación debe estar presente en cada una de las etapas del proceso, organizado según el esquema del Ciclo del Proyecto. La revisión de múltiples experiencias de SIGP en proyectos de desarrollo rural indica que en la mayoría de los casos no se analiza la participación y uso de esta tecnología en cada fase del proyecto. Esto justifica la definición de una metodología que integre el conocimiento experto y experimentado en la aplicación de los SIGP en las fases del Ciclo del Proyecto.
Resumo:
El incremento de la esperanza de vida en los países desarrollados (más de 80 años en 2013), está suponiendo un crecimiento considerable en la incidencia y prevalencia de enfermedades discapacitantes, que si bien pueden aparecer a edades tempranas, son más frecuentes en la tercera edad, o en sus inmediaciones. Enfermedades neuro-degenerativas que suponen un gran hándicap funcional, pues algunas de ellas están asociadas a movimientos involuntarios de determinadas partes del cuerpo, sobre todo de las extremidades. Tareas cotidianas como la ingesta de alimento, vestirse, escribir, interactuar con el ordenador, etc… pueden llegar a ser grandes retos para las personas que las padecen. El diagnóstico precoz y certero resulta fundamental para la prescripción de la terapia o tratamiento óptimo. Teniendo en cuenta incluso que en muchos casos, por desgracia la mayoría, sólo se puede actuar para mitigar los síntomas, y no para sanarlos, al menos de momento. Aun así, acertar de manera temprana en el diagnóstico supone proporcionar al enfermo una mayor calidad de vida durante mucho más tiempo, por lo cual el esfuerzo merece, y mucho, la pena. Los enfermos de Párkinson y de temblor esencial suponen un porcentaje importante de la casuística clínica en los trastornos del movimiento que impiden llevar una vida normal, que producen una discapacidad física y una no menos importante exclusión social. Las vías de tratamiento son dispares de ahí que sea crítico acertar en el diagnóstico lo antes posible. Hasta la actualidad, los profesionales y expertos en medicina, utilizan unas escalas cualitativas para diferenciar la patología y su grado de afectación. Dichas escalas también se utilizan para efectuar un seguimiento clínico y registrar la historia del paciente. En esta tesis se propone una serie de métodos de análisis y de identificación/clasificación de los tipos de temblor asociados a la enfermedad de Párkinson y el temblor esencial. Empleando técnicas de inteligencia artificial basadas en clasificadores inteligentes: redes neuronales (MLP y LVQ) y máquinas de soporte vectorial (SVM), a partir del desarrollo e implantación de un sistema para la medida y análisis objetiva del temblor: DIMETER. Dicho sistema además de ser una herramienta eficaz para la ayuda al diagnóstico, presenta también las capacidades necesarias para proporcionar un seguimiento riguroso y fiable de la evolución de cada paciente. ABSTRACT The increase in life expectancy in developed countries in more than 80 years (data belongs to 2013), is assuming considerable growth in the incidence and prevalence of disabling diseases. Although they may appear at an early age, they are more common in the elderly ages or in its vicinity. Nuero-degenerative diseases that are a major functional handicap, as some of them are associated with involuntary movements of certain body parts, especially of the limbs. Everyday tasks such as food intake, dressing, writing, interact with the computer, etc ... can become large debris for people who suffer. Early and accurate diagnosis is crucial for prescribing optimal therapy or treatment. Even taking into account that in many cases, unfortunately the majority, can only act to mitigate the symptoms, not to cure them, at least for now. Nevertheless, early diagnosis may provide the patient a better quality of life for much longer time, so the effort is worth, and much, grief. Sufferers of Parkinson's and essential tremor represent a significant percentage of clinical casuistry in movement disorders that prevent a normal life, leading to physical disability and not least social exclusion. There are various treatment methods, which makes it necessary the immediate diagnosis. Up to date, professionals and medical experts, use a qualitative scale to differentiate the disease and degree of involvement. Therefore, those scales are used in clinical follow-up. In this thesis, several methods of analysis and identification / classification of types of tremor associated with Parkinson's disease and essential tremor are proposed. Using artificial intelligence techniques based on intelligent classification: neural networks (MLP and LVQ) and support vector machines (SVM), starting from the development and implementation of a system for measuring and objective analysis of the tremor: DIMETER. This system besides being an effective tool to aid diagnosis, it also has the necessary capabilities to provide a rigorous and reliable monitoring of the evolution of each patient.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
En este proyecto se abordan el diseño y análisis, con sus diferentes etapas, de varias configuraciones de prototipos para luminarias LED enfocadas al ámbito domestico e industrial. Se realizarán montajes sobre diferentes materiales para evaluar los resultados y decidir que soporte es más adecuado para cada circunstancia. Inicialmente expondremos el estado actual de esta tecnología y caracterizaremos, de forma preliminar, los dispositivos que vamos a utilizar para elaborar los prototipos que posteriormente analizaremos. Seguidamente detallaremos el proceso de construcción de cada prototipo, indicando especialmente las diferencias y similitudes entre ellos que, en siguientes secciones, serán analizadas. Trabajaremos con dos rangos de potencia para las luminarias. El primero de ellos se centra en obtener la máxima potencia lumínica, con valores comprendidos entre 40W y 50W, considerando un uso industrial, alumbrado público, etc. El segundo rango de potencias, se enfocará al ámbito doméstico, adecuando la temperatura de color a este entorno, para combinar la potencia, de entre 9W y 12W, con una iluminación más cálida. Finalmente someteremos los prototipos elaborados a una serie de análisis y, ante los resultados, concluiremos cuales serán aptos para el uso al que se pretenden dedicar y aquellos que deberán ser modificados. En el entorno de laboratorio, donde se llevaran a cabo análisis térmicos, eléctricos y lumínicos, emplearemos instrumental especializado para cada tipo de análisis así como su software correspondiente. A excepción de las mediciones relacionadas con el espectro de radiación lumínica, el resto serán obtenidas mediante la plataforma LabVIEW®, un completo software grafico para el desarrollo de instrumentación virtual. Como sección final, expondremos una evaluación sobre el cumplimiento de los objetivos establecidos para el proyecto, posibles mejoras o trabajos futuros y conclusiones obtenidas. ABSTRACT. This project concerns the design and analysis, with its different stages, of various configurations of LED luminaries prototypes focused on domestic and industrial environments. Mounts on different materials will be made to evaluate the results and decide which material is most appropriate for each circumstance. Initially we will expose the current state of this technology and characterize, in a preliminary way, the devices that we will use to produce the prototypes which subsequently will analyze. Later we detail the process of construction of each prototype, especially indicating the differences and similarities between them. In the following sections, we will analyze these characteristics. We will work with two power ranges for luminaries. The first one focuses on maximum light output, with values between 40W and 50W, thinking about industrial use, street lighting, etc. The second power range will focus on the domestic environment, adjusting the color temperature in this environment to combine power, between 9W and 12W, with warm lighting. Finally the prototypes will submit a series of analyzes and, with the results obtained, we conclude if will be suitable for the intended use and those that should be modified. In laboratory environment, where thermal, electrical and lighting analyzes were carried out, we will use specialized instruments for each type of analysis as well as the corresponding software. Except for measurements related to the spectrum of light radiation, the rest of information will be obtained by LabVIEW®, complete graphical development software for virtual instrumentation. As a final section, we will present an evaluation of compliance with the project objectives, possible future work, or improvements, and conclusions.
Resumo:
El presente estudio se enmarca en el proyecto GreenMVC en el que colabora el CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas). Este proyecto tiene como objetivo el análisis y optimización de la tecnología de desalación de compresión mecánica de vapor (MVC), para ser alimentado mediante fuentes de energía renovables. El empleo de fuentes de energía renovables para la alimentación de procesos de desalación es una opción prometedora especialmente en áreas remotas y regiones áridas donde las fuentes de energía convencionales son excesivamente caras o no están disponibles. En este proyecto se analiza la viabilidad tanto técnica como económica de un sistema de desalación de agua mediante compresión mecánica de vapor (MVC) activado por energía eólica, como una alternativa para el abastecimiento de agua limpia respetuosa con el medioambiente. Una de las principales dificultades del accionamiento de la desaladora MVC mediante energía eólica, y en lo que principalmente se centra este proyecto, es la caracterización de su funcionamiento ante las variaciones de potencia subministrada debido a la naturaleza variable del recurso eólico. Generalmente, estos sistemas de desalación están conectados a la red, trabajando constantemente en su punto de funcionamiento nominal. Para poder obtener la relación entre la potencia suministrada y el caudal obtenido para una desaladora, previamente, se ha realizado un modelo termodinámico de la desaladora y, a partir de éste, se han analizado los principios de funcionamiento de este proceso de desalación. Modelando también la energía eólica, finalmente se crea un modelo único del conjunto conformado por la desaladora MVC y el aerogenerador capaz de caracterizar el funcionamiento a régimen variable y predecir la producción, de modo que se pueda determinar la viabilidad técnica del proyecto. Otro de los objetivos principales, era analizar la viabilidad económica. Para ello, también empleando el modelo realizado, se ha estudiado el coste de la desalación MVC yde la generación de energía eléctrica mediante energía eólica. Consiguiendo, finalmente,estimar el coste de desalación en función de el diseño de la desaladora empleada, el tamaño del aerogenerador, y del recurso eólico del emplazamiento.
Análisis de las herramientas ORCC y Vivado HLS para la Síntesis de Modelos de Flujo de Datos RVC-CAL
Resumo:
En este Proyecto Fin de Grado se ha realizado un estudio de cómo generar, a partir de modelos de flujo de datos en RVC-CAL (Reconfigurable Video Coding – CAL Actor Language), modelos VHDL (Versatile Hardware Description Language) mediante Vivado HLS (Vivado High Level Synthesis), incluida en las herramientas disponibles en Vivado de Xilinx. Una vez conseguido el modelo VHDL resultante, la intención es que mediante las herramientas de Xilinx se programe en una FPGA (Field Programmable Gate Array) o el dispositivo Zynq también desarrollado por Xilinx. RVC-CAL es un lenguaje de flujo de datos que describe la funcionalidad de bloques funcionales, denominados actores. Las funcionalidades que desarrolla un actor se definen como acciones, las cuales pueden ser diferentes en un mismo actor. Los actores pueden comunicarse entre sí y formar una red de actores o network. Con Vivado HLS podemos obtener un diseño VHDL a partir de un modelo en lenguaje C. Por lo que la generación de modelos en VHDL a partir de otros en RVC-CAL, requiere una fase previa en la que los modelos en RVC-CAL serán compilados para conseguir su equivalente en lenguaje C. El compilador ORCC (Open RVC-CAL Compiler) es la herramienta que nos permite lograr diseños en lenguaje C partiendo de modelos en RVC-CAL. ORCC no crea directamente el código ejecutable, sino que genera un código fuente disponible para ser compilado por otra herramienta, en el caso de este proyecto, el compilador GCC (Gnu C Compiler) de Linux. En resumen en este proyecto nos encontramos con tres puntos de estudio bien diferenciados, los cuales son: 1. Partimos de modelos de flujo de datos en RVC-CAL, los cuales son compilados por ORCC para alcanzar su traducción en lenguaje C. 2. Una vez conseguidos los diseños equivalentes en lenguaje C, son sintetizados en Vivado HLS para conseguir los modelos en VHDL. 3. Los modelos VHDL resultantes serian manipulados por las herramientas de Xilinx para producir el bitstream que sea programado en una FPGA o en el dispositivo Zynq. En el estudio del segundo punto, nos encontramos con una serie de elementos conflictivos que afectan a la síntesis en Vivado HLS de los diseños en lenguaje C generados por ORCC. Estos elementos están relacionados con la manera que se encuentra estructurada la especificación en C generada por ORCC y que Vivado HLS no puede soportar en determinados momentos de la síntesis. De esta manera se ha propuesto una transformación “manual” de los diseños generados por ORCC que afecto lo menos posible a los modelos originales para poder realizar la síntesis con Vivado HLS y crear el fichero VHDL correcto. De esta forma este documento se estructura siguiendo el modelo de un trabajo de investigación. En primer lugar, se exponen las motivaciones y objetivos que apoyan y se esperan lograr en este trabajo. Seguidamente, se pone de manifiesto un análisis del estado del arte de los elementos necesarios para el desarrollo del mismo, proporcionando los conceptos básicos para la correcta comprensión y estudio del documento. Se realiza una descripción de los lenguajes RVC-CAL y VHDL, además de una introducción de las herramientas ORCC y Vivado, analizando las bondades y características principales de ambas. Una vez conocido el comportamiento de ambas herramientas, se describen las soluciones desarrolladas en nuestro estudio de la síntesis de modelos en RVC-CAL, poniéndose de manifiesto los puntos conflictivos anteriormente señalados que Vivado HLS no puede soportar en la síntesis de los diseños en lenguaje C generados por el compilador ORCC. A continuación se presentan las soluciones propuestas a estos errores acontecidos durante la síntesis, con las cuales se pretende alcanzar una especificación en C más óptima para una correcta síntesis en Vivado HLS y alcanzar de esta forma los modelos VHDL adecuados. Por último, como resultado final de este trabajo se extraen un conjunto de conclusiones sobre todos los análisis y desarrollos acontecidos en el mismo. Al mismo tiempo se proponen una serie de líneas futuras de trabajo con las que se podría continuar el estudio y completar la investigación desarrollada en este documento. ABSTRACT. In this Project it has made a study of how to generate, from data flow models in RVC-CAL (Reconfigurable Video Coding - Actor CAL Language), VHDL models (Versatile Hardware Description Language) by Vivado HLS (Vivado High Level Synthesis), included in the tools available in Vivado of Xilinx. Once achieved the resulting VHDL model, the intention is that by the Xilinx tools programmed in FPGA or Zynq device also developed by Xilinx. RVC-CAL is a dataflow language that describes the functionality of functional blocks, called actors. The functionalities developed by an actor are defined as actions, which may be different in the same actor. Actors can communicate with each other and form a network of actors. With Vivado HLS we can get a VHDL design from a model in C. So the generation of models in VHDL from others in RVC-CAL requires a preliminary phase in which the models RVC-CAL will be compiled to get its equivalent in C. The compiler ORCC (Open RVC-CAL Compiler) is the tool that allows us to achieve designs in C language models based on RVC-CAL. ORCC not directly create the executable code but generates an available source code to be compiled by another tool, in the case of this project, the GCC compiler (GNU C Compiler) of Linux. In short, in this project we find three well-defined points of study, which are: 1. We start from data flow models in RVC-CAL, which are compiled by ORCC to achieve its translation in C. 2. Once you realize the equivalent designs in C, they are synthesized in Vivado HLS for VHDL models. 3. The resulting models VHDL would be manipulated by Xilinx tools to produce the bitstream that is programmed into an FPGA or Zynq device. In the study of the second point, we find a number of conflicting elements that affect the synthesis Vivado HLS designs in C generated by ORCC. These elements are related to the way it is structured specification in C generated ORCC and Vivado HLS cannot hold at certain times of the synthesis. Thus it has proposed a "manual" transformation of designs generated by ORCC that affected as little as possible to the original in order to perform the synthesis Vivado HLS and create the correct file VHDL models. Thus this document is structured along the lines of a research. First, the motivations and objectives that support and hope to reach in this work are presented. Then it shows an analysis the state of the art of the elements necessary for its development, providing the basics for a correct understanding and study of the document. A description of the RVC-CAL and VHDL languages is made, in addition an introduction of the ORCC and Vivado tools, analyzing the advantages and main features of both. Once you know the behavior of both tools, the solutions developed in our study of the synthesis of RVC-CAL models, introducing the conflicting points mentioned above are described that Vivado HLS cannot stand in the synthesis of design in C language generated by ORCC compiler. Below the proposed solutions to these errors occurred during synthesis, with which it is intended to achieve optimum C specification for proper synthesis Vivado HLS and thus create the appropriate VHDL models are presented. Finally, as the end result of this work a set of conclusions on all analyzes and developments occurred in the same are removed. At the same time a series of future lines of work which could continue to study and complete the research developed in this document are proposed.