999 resultados para DISEÑO DE UN SISTEMA DE DOSIFICACION
Resumo:
El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.
Resumo:
El desarrollo de este trabajo presenta la realización de una plataforma experimental, la cual permitirá investigar sobre una metodología para el diseño y análisis de un sistema teleoperado, considerando la dinámica no lineal del manipulador esclavo, así como el retardo en el canal de comunicación. El trabajado ha sido desarrollado entre el laboratorio de Automática y Robótica (DISAM) de la Universidad Politécnica de Madrid (UPM) y el Laboratorio de Manufactura del Centro de Tecnologías Avanzadas de Manufactura (CETAM) de la Pontificia Universidad Católica del Perú (PUCP). La estructura mecánica del brazo, así como los accionamientos eléctricos ha sido implementada. Se han desarrollado pruebas experimentales del Sistema de Teleoperación. La tarjeta PC104 (embedded board) ha sido configurada y puesta a punto, ésta comanda la interface de potencia y sensores de los motores DC de cada articulación del brazo. Se ha desarrollado los drives para el manejo de los accionamientos del maestro y del esclavo: envío/recepción de datos de posición velocidad, aceleración y corriente a través de una red CAN. Así como los programas para la interconexión a través de una red LAN, del Sistema Operativo Windows y el Sistema Operativo en Tiempo Real - QNX.
Resumo:
La variación en calidad y cantidad de agua a lo largo del año en Tanzania provoca que la población de las zonas rurales se vea sometida a falta de acceso a agua potable. Según la Organización Mundial de la Salud, la distancia a la fuente de agua más próxima debe ser menor a 1000 metros y la espera para obtención del agua no mayor a 30 minutos. A lo largo del artículo se analiza la red de abastecimiento y se presentará el estudio de un sistema de tratamiento de potabilización de agua de bajo coste aplicado a pequeñas comunidades de países en desarrollo. La planta potabilizadora consistirá en un canal sedimentador, un filtro lento de arenas y un sistema de cloración en el depósito. Se analizará cada tratamiento realizado en la planta potabilizadora y su acción sobre la calidad del agua.
Resumo:
Este trabajo pretende analizar la interacción del usuario final con un geoportal. Para este propósito, se evalúa la medida en que se cumplen las expectativas y necesidades del usuario, el grado probable de dificultad que enfrenta, así como el nivel de satisfacción que alcanza en un sitio web. Se analiza especialmente el caso en que el geoportal ha sido creado en base a objetivos y necesidades del promotor, pero sin tener en cuenta las expectativas, necesidades y limitaciones del usuario. Para este fin, se realizó el análisis del portal del Sistema de Información del Atlas Nacional de España en la web (SIANEweb) mediante técnicas inherentes al Diseño Centrado en el Usuario (DCU). Este enfoque es particularmente útil al evaluar la capacidad de un geoportal para resolver necesidades reales del usuario. El DCU es iterativo, por lo que se puede aplicar a cada una de las etapas en el desarrollo de un prototipo, así como a un sitio ya operativo como el caso del SIANEweb, con el fin de alcanzar o mejorar la usabilidad. Dado que el sitio seleccionado se encuentra actualmente operativo, este trabajo se centra en las fases de requisitos y de evaluación y, por lo tanto, no en la planificación, diseño y desarrollo de una aplicaciónweb. Este estudio ha permitido evidenciar los problemas que impiden el rendimiento óptimo del geoportal, limitando su facilidad de uso con diferentes niveles de incidencia para el SIANEweb y condicionando la satisfacción de los usuarios. Sobre la base de los resultados alcanzados, se proponen una serie de mejoras potenciales para el SIANEweb, que se pueden extrapolar a cualquier geoportal de características similares. Estas mejoras están clasificadas para cada perfil de usuario, sin embargo, los resultados se orientan a las necesidades comunes que manifiestan los dos grupos. Así mismo, se aportan datos cuantitativos de eficacia, eficiencia y satisfacción que podrían servir como punto de partida para una evaluación comparativa futura, que denote una experiencia más eficiente, agradable y exitosa para los usuarios, una vez incorporado el SIANEweb en un proceso de mejora de la usabilidad a través del enfoque DCU.
Resumo:
El punto de partida para que una empresa mejore su competitividad es la evaluación de su gestión; para ello, es necesario contar con instrumentos que de manera objetiva, evalúen la gestión y proporcionen una guía para la mejora continua de los procesos. Este trabajo de investigación presenta el diseño y aplicación de un instrumento para evaluar la gestión de recursos humanos en las pymes industriales. Es un instrumento adaptado a la cultura, mercado, características y especificidades propias de las pymes del sector industrial del Estado Bolívar, Venezuela. Los items de evaluación fueron divididos en cuatro bloques de acuerdo al ciclo Planificar, Hacer, Verificar, Actuar y su validación estadística fue realizada mediante la técnica de análisis multivariante. Una vez validada, se aplicó la herramienta a trescientos setenta y cinco individuos del área de Recursos Humanos en ciento veinticinco Pymes industriales. Los resultados indican que los aspectos de tipo funcional son los que conducen la gestión en lugar de las razones estratégicas de la empresa, y en general, no existe plan de carrera ni sistema de evaluación de desempeño. La caracterización aportada por este estudio permite a las empresas evaluadas conocer cuales son los factores a mejorar en su gestión.The starting point for a company to improve its competitiveness is the evaluation of their management; for this it is necessary to have instruments that objectively evaluate and provide management guidance for continuous process improvement. This research paper presents the design and implementation of a tool to assess the human resource management in industrial SMEs. It is an instrument adapted to the culture, market characteristics and needs of SMEs in the Bolivar State, Venezuela. The evaluation items were divided into four blocks according to the Plan, Do, Check, Act cycle and its statistical validation was performed using the technique of multivariate analysis. Once validated, the tool was applied to hundred seventy five individuals of Human Resources belonging to hundred twenty five industrial SMEs. The results indicate that aspects of functional type are the leading management rather than strategic reasons, and in general, there is no career plan and system performance evaluation. The characterization provided by this study evaluated allows companies to know what factors to improve their management.
Resumo:
La finalidad de este proyecto es el desarrollo de un dispositivo que permita realizar de manera inalámbrica el control de toda clase de equipos MIDI, tales como sintetizadores o mesas de mezclas. Las aplicaciones prácticas que puede tener un dispositivo de estas característica son múltiples, tales como simplificar el conexionado en un estudio de grabación, controlar a distancia instrumentos musicales, y facilitar el uso de dispositivos portables y de amplio acceso tales como teléfonos móviles y tablets para controlar diversos equipos de audio. El desarrollo del proyecto consistirá en primer lugar en la búsqueda y adquisición de los componentes hardware y software necesarios para el diseño del dispositivo, y en segundo lugar del diseño, programación y puesta en funcionamiento de un prototipo del mismo.
Resumo:
Este Trabajo de Fin de Grado consiste en el análisis, evaluación y mejora de un sistema de segmentación temporal de vídeo, embebido dentro de un programa de caracterización estética de vídeos que detecta cambios de plano a través de cortes, fundidos y encadenados. En primer lugar se realiza un análisis del programa original empleando métricas que permitan cuantificar el rendimiento y detectar los principales problemas y su contexto, buscando patrones comunes que permitan enfocar las mejoras necesarias para solventar dichos problemas. A continuación, se proponen mejoras tanto funcionales como no funcionales, que son acometidas en la fase de diseño e implementación. Para las mejoras relacionadas con la segmentación temporal, se aplican técnicas existentes en el estado del arte y se adaptan a las necesidades del programa. Finalmente, se evalúa el programa comprobando que las métricas que habían cuantificado los problemas han mejorado y detallando el posible trabajo futuro a realizar sobre el programa.
Resumo:
En este proyecto se elabora la ingeniería básica de un sistema de almacenamiento térmico para la central termosolar Astexol 2 (Badajoz, España). Para ello, primeramente se decidió que el sistema térmico de almacenamiento a diseñar fuera indirecto de dos tanques con sales fundidas. Una vez seleccionado el tipo de almacenamiento adecuado, se seleccionó la capacidad de almacenamiento óptima, en base a unos objetivos establecidos para la instalación del TES en Astexol 2. Finalmente, se procedió con el diseño de los equipos principales y con la realización de los planos de implantación y de los PFD’s (diagramas de flujo) y P&ID’s (diagramas de instrumentación y control) del sistema de almacenamiento. ABSTRACT This project includes the basic engineering of a thermal storage system for the concentrating solar power plant Astexol 2 (Badajoz, Spain). First of all, it was decided that the type of thermal storage system to design had to be an indirect two-tank molten salt thermal storage system. Once the proper type of storage system was chosen, the optimum storage capacity was selected, according to the main aims designated for the thermal storage system installation in Astexol 2.Finally, the design of the main equipment of the thermal storage system was done, together with the elaboration of the associated plot plans, PFD’s (Process Flow Diagrams) and P&ID’s (Process and Instrumentation Diagrams).
Resumo:
Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.
Resumo:
Este trabajo constituye la simulación de un entorno para un sistema de separación de aeronaves basada en tiempos (TBS). El trabajo se divide en dos secciones: la generación de modelos atmosféricos, y la generación y simulación de trayectoria. Se pretende así recrear la ejecución de una maniobra de aproximación final en diferentes escenarios. La sección de generación de modelos atmosféricos es responsable de construir diferentes modelos de atmósfera, en los que poder obtener valores de presión, temperatura, viento y otras variables atmosféricas, para cualquier posición y tiempo deseados. La sección de generación y simulación de trayectoria se centra en la maniobra de aproximación final a pista, construyendo una trayectoria típica de aproximación final. Después, utilizando los datos atmosféricos de la primera sección, se realiza una simulación de una aeronave realizando dicha aproximación final, obteniéndose todos los datos relativos a velocidades respecto al aire y respecto a tierra, posiciones, tiempo transcurrido, etc. Como resultado, se obtiene información sobre la ejecución de la maniobra de aproximación final. Esta información es sensible a las variaciones de las condiciones atmosféricas de la simulación.
Resumo:
El departamento de QA & Testing de Indra da cobertura a las actividades de aseguramiento de calidad y testing en diferentes operaciones. La línea principal de operación está centrada en el diseño y ejecución de pruebas de aplicaciones, las cuales están orientadas a asegurar que “el sistema hace lo que tiene que hacer, y no hace lo que no debe hacer”. En la línea de movilidad (moQA) se dispone de software específico y de un rack de dispositivos para aplicaciones que deben funcionar sobre diversidad de tecnologías o dispositivos. Es precisamente en esta unidad donde se está buscando dar un nuevo enfoque al testing tradicional. En este contexto se propone como método innovador la implementación de una herramienta que permita utilizar un dispositivo, Smartphone o Tablet, en remoto desde cualquier parte del mundo. Con el objetivo principal de desarrollar un nuevo servicio que permita a la unidad de QA & Testing diferenciarse de los competidores en un mercado completamente en auge, se ha llevado a cabo este Trabajo de Fin de Grado, en el cual se realiza la implementación de un sistema de reserva de dispositivos integrado en la nube. Sin embargo, cabe destacar que esta necesidad surge también a raíz del crecimiento exponencial del departamento producido en los últimos meses y que ha provocado la adquisición de decenas de dispositivos sobrepasando el centenar. El sistema implementado busca sacar una rentabilidad mucho mayor de los mismos. A partir de la creación de esta nueva herramienta se abre un amplio abanico de posibilidades que podrían aumentar las ganancias de la inversión realizada en el rack de dispositivos. El desarrollo de este Trabajo de Fin de Grado se ha dividido en tres tareas distintas: I) Realización de un estudio de las distintas herramientas de gestión de reservas existentes, para encontrar aquella que mejor se adapte al proyecto. Posteriormente se procederá a la implantación de la misma sobre un servidor web, como parte del desarrollo de la aplicación web cliente. II) Implementación de las conexiones necesarias entre la nube y la aplicación web cliente. III) Desarrollo del script encargado de proporcionar el acceso remoto de un dispositivo desde el servidor directamente hasta el cliente. En último lugar, conociendo toda la lógica del sistema, se mostrarán los resultados y se describirán las conclusiones de la herramienta implementada.
Resumo:
A día de hoy, existen millones de artículos en internet que tratan sobre diferentes temas. Los investigadores hacen búsquedas exhaustivas para encontrar aquellos artículos que encuentran más importantes, los cuales se van descargando en su ordenador llegando a tal extremo que la cantidad de documentos que pueden llegar a tener se vuelve casi inmanejable. El proyecto Calimaco, el cual se está llevando a cabo en el Laboratorio Decoroso Crespo, busca dar soporte a la tarea de búsqueda de información en el ámbito de la investigación, donde la cantidad de información existente es abrumadora. El objetivo es generar una visualización tridimensional de una serie de documentos (corpus), de manera que el usuario pueda explorarlo fácilmente. Además se pretende que dicho proceso se adapte a las necesidades y características particulares del usuario. Esto puede resultar muy útil cuando, por ejemplo, un investigador desea buscar información acerca de un determinado tema dentro de todos sus documentos, ya que el sistema los clasificará en base a dichos temas, permitiéndole acceder a la información relevante de manera rápida y sencilla. La división de este proyecto se compone de dos partes: la primera se corresponde al preprocesamiento de los documentos, mientras que la segunda se encarga de la visualización de los resultados, además de la interactuación del usuario. El trabajo realizado expuesto en esta memoria se sitúa dentro de la parte de preprocesamiento del proyecto Calimaco. La aportación a este proyecto ha consistido en la realización de pruebas y análisis de los resultados, diseño e implementación de una base de datos, e integración de ambas partes, creando una primera versión del sistema. Para comprobar el funcionamiento de esta primera versión se diseñó un plan de pruebas del sistema para medir el tiempo y la precisión.---ABSTRACT---Nowadays, there are millions of articles on the Internet that deal with different topics. Researchers do exhaustive searches to find those articles that are more important for them and download them to their computer, sometimes, reaching a point where the amount of downloaded documents is unmanageable. Calimaco project, which is being carried out at Laboratorio Decoroso Crespo, aims to provide a solution in the task of searching information in terms of investigation, where the amount of information is overwhelming. The goal is to create a tridimensional vision of a set of documents (corpus), so that the user can explore it easily. In addition, this process is intended to adapt to the personal needs and characteristics of the user. This can turn out to be useful when, for example, a researcher wants to seek information about a specific subject inside all his documents, because the system will classify them by subjects, allowing to access relevant information in a fast and easy way. This project is formed by two big sections: the first one corresponds to the pre-process of documents, while the second one is in charge of result visualization as well as the interaction with the user. This memory contains the explanation of the job done in the first part of the Calimaco project, which belongs to the pre-process of documents. The contributions done to the project are: development of tests and analysis of results, a design and implementation of a database, and an integration of both parts (pre-process of documents and result visualization) creating a first version of the system. To test the functioning of this first version, the author created a system test plan in order to gather information about execution time and accuracy.
Resumo:
Los Objetivos de Desarrollo del Milenio comprometieron a los países con una nueva alianza mundial de alcanzar gradualmente una cobertura universal de los niveles mínimos de bienestar en los países en desarrollo (reducir la pobreza y el hambre y dar respuesta a problemas como la mala salud, las desigualdades de género, la falta de educación, el acceso a agua salubre y la degradación ambiental). Para dar continuidad a esta iniciativa, recientemente en septiembre de 2015, la ONU promulgó la declaración de los Objetivos de Desarrollo Sostenible. Los ODM sitúan la salud en el corazón del desarrollo y establecen un novedoso pacto mundial que vincula a los países desarrollados y los países en desarrollo por medio de obligaciones claras y recíprocas. En este sentido, diversos organismos de cooperación a través de sus programas de cooperación internacional, tratan de mejorar el acceso a la asistencia sanitaria, especialmente a la población vulnerable que vive en zonas rurales de países en desarrollo. Con el fin de ayudar a cumplir los ODM que apoyan los temas de salud en dicha población, estos organismos desarrollan proyectos que despliegan sistemas de e-salud. Las intervenciones se enfrentan a múltiples retos: condicionantes de los países en desarrollo, las necesidades y demandas de los sistemas sanitarios y la complejidad de implantar las TIC en entornos complejos y altamente dinámicos como son los países en desarrollo. Estos condicionantes ocasionan la mayoría de proyectos fallidos que terminan convirtiéndose en soluciones aisladas, que anteponen la tecnología a las necesidades de la población y no generan el impacto esperado en su desarrollo. En este contexto tuvo origen esta tesis doctoral, que persigue como objetivo analizar, planificar, diseñar, verificar y validar un marco arquitectónico de implantación de sistemas de e-salud en áreas rurales de países en desarrollo, que promueva el mejoramiento de la calidad de vida de la población vulnerable de estas regiones y la efectividad de las intervenciones de e-salud en el marco de proyectos de cooperación al desarrollo. Para lograrlo, tomé como punto de partida, diversas estrategias, modelos, metodologías de implantación de e-salud, modelos de gestión de proyectos propuestos por distintos organismos internacionales y propuse una instanciación de estos modelos a proyectos de implantación de sistemas de e-salud en países en desarrollo. Apliqué la metodología action research y los enfoques twin track, middle out y design thinking que me permitieron el refinamiento iterativo del modelo propuesto en la tesis doctoral mediante el trabajo de campo realizado en dos zonas rurales de países de Centroamérica: Jocotán (Guatemala) y San José de Cusmapa (Nicaragua). Como resultado obtuve un modelo experimental basado en cuatro componentes: un modelo de referencia tipo, un modelo conceptual de e-salud, los procesos de gestión y de implantación de sistemas de e-salud en países en desarrollo y una arquitectura de referencia. El modelo experimental resultante aporta herramientas importantes para el despliegue de sistemas de e-salud en países en desarrollo. Se ha propuesto un modelo de referencia que proporciona una visión holística del contexto del país en desarrollo donde se desarrollarán las intervenciones. Un modelo conceptual de e-salud que representa los principales conceptos involucrados en un sistema de e-salud. Los procesos ii- de gestión del proyecto y de implantación del sistema que proporcionan a los grupos de cooperación, herramientas para el análisis, diseño, desarrollo y despliegue de los sistemas de e-salud en áreas rurales de países en desarrollo. Y finalmente la arquitectura de referencia que sienta las bases para la aplicación de estos procesos a un contexto en particular. Las líneas futuras de trabajo sugieren extender el modelo a más casos de estudio que permitan su refinamiento y evaluar los futuros usos que pueden surgir de los sistemas de e-salud resultantes. ABSTRACT Millennium Development Goals (MDGs) committing the countries with a new global partnership to achieve universal coverage of minimum levels of well-being in Developing Countries (for addressing extreme poverty in its many dimensions-income poverty, hunger, disease, lack of adequate housing, and exclusion-while promoting gender equality, education, and environmental sustainability). From September 2015, these goals are replaces with Sustainable Development Goals (SDGs). The MDG place health at the heart of development and establish a novel global compact, linking developed and developing countries through clear, reciprocal obligations. Many public and private institutions promote international cooperation programs to support in achieving the MDGs. Some of these cooperation programs deal improving access to healthcare to poor people living in isolated areas from developing countries. In order to accomplish this goal organizations perform projects (interventions or cooperation projects) that deploy e-health systems in these zones. Nevertheless, this kind of projects face multiple challenges that dismiss the effectiveness of the projects results. In particular, cooperation teams face issues such as constraints in developing countries, lack of electrical and ICT infrastructure, scarce transport, extreme climate conditions, lack ICT capacity, lack of access to healthcare and inefficient delivery methods, etc. Hence, these issues increase the complexity of implementing e-health in developing countries and then causes the most projects fail. In other words, the solutions do not meet population needs and do not generate the expected impact on development. This context is the starting point of this doctoral thesis, which deals with analysing, planning, designing, testing and validating an architectural framework in order to implement e-health systems in rural areas from developing countries, promote development of the population in these regions, and thus improve the impact of interventions of development cooperation projects. To achieve this goal, I took as a starting point the strategies, models, e-health implementation methodologies and projects management models proposed by various international agencies. Then I proposed an instantiation of these models to manage the intervention and implement e-health systems in developing countries. I applied the action research methodology and the approaches twin track, middle out and design thinking which allowed me the iterative refinement of the model proposed in this doctoral thesis. The proposed framework was validated by running two cases studies in rural areas of Central America: Jocotán (Guatemala) and San José de Cusmapa (Nicaragua). As a result, I obtained an experimental model based on four components: a Type reference model, an e-health conceptual model, both process management and implementation e-health systems in developing countries and a reference architecture. The resulting experimental model provides important tools for the deployment of e-health systems in developing countries. The model become as reference model that provides a holistic view of the developing countries context where the interventions will be running. The conceptual model of e-health represents the main concepts involved into an e-health system. The project management and implementation processes of the iv- system provide to the cooperation teams with tools for analysing, designing, developing and deploying e-health systems in rural areas from developing countries. Finally, the reference architecture provides the basis for the implementation of these processes into a particular context. The future research suggest the extension the model to other cases studies in order to refine and evaluate the viability the model.
Resumo:
En el presente proyecto se propone la definición e implementación de un subsistema de monitorización para un sistema de tiempo real distribuido. Este monitor supervisará el estado de todos los componentes software y hardware del sistema original, y permitirá el arranque y parada de cada componente individualmente o del subsistema completo. Constará de dos componentes básicos: un supervisor local para cada subsistema, y un supervisor central con interfaz gráfica. El supervisor local es un componente software asociado a cada subsistema que realizará las funciones de monitorización, arranque/parada de los componentes y envío de informes al supervisor central. Atenderá además a los comandos de arranque y parada provenientes del supervisor central. El supervisor central recibirá los informes de estado de cada uno de los supervisores locales y permitirá el arranque y parada de los subsistemas. Contará con un interfaz gráfico a modo de posición de control. El sistema será desarrollado íntegramente (salvo la posición gráfica) en ADA95, y podrá ejecutarse en cualquiera de las distribuciones Linux más extendidas. En el contexto de Ingeniería de Software, se seguirá un desarrollo en cascada, aportándose los requisitos, el diseño, la codificación y un plan de pruebas. Abstract In this project, the definition and implementation of a monitoring system is proposed for a previously defined real-time distributed system. This supervisory system will monitor the status of each subsystem and its software and hardware components. This new system will also be able to start and stop each individual component and start or stop the entire system. It will consist of two basic components: a local supervisor for each subsystem, and a central supervisor with a graphical unit interface (GUI). The local supervisor will be a software component attached to each original subsystem, which will perform functions such as components monitoring, start and stop the associated subsystem, and sending reports to the central supervisor. It also will attend the start and stop commands from the central supervisor. The central supervisor will receive status reports from each of the local supervisors and will allow starting and stopping the subsystems. It will offer a graphical interface to be used as a main control panel. The system will be developed in ADA 95 (except the graphical position), and should work on any of the most common Linux distributions. In the context of Software Engineering, the project will be developed following a waterfall life cycle. Reports on the stages of requirements, design, coding and testing plan shall be provided.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.