617 resultados para Batería EPESE
Resumo:
La Realidad Aumentada forma parte de múltiples proyectos de investigación desde hace varios años. La unión de la información del mundo real y la información digital ofrece un sinfín de posibilidades. Las más conocidas van orientadas a los juegos pero, gracias a ello, también se pueden implementar Interfaces Naturales. En otras palabras, conseguir que el usuario maneje un dispositivo electrónico con sus propias acciones: movimiento corporal, expresiones faciales, etc. El presente proyecto muestra el desarrollo de la capa de sistema de una Interfaz Natural, Mokey, que permite la simulación de un teclado mediante movimientos corporales del usuario. Con esto, se consigue que cualquier aplicación de un ordenador que requiera el uso de un teclado, pueda ser usada con movimientos corporales, aunque en el momento de su creación no fuese diseñada para ello. La capa de usuario de Mokey es tratada en el proyecto realizado por Carlos Lázaro Basanta. El principal objetivo de Mokey es facilitar el acceso de una tecnología tan presente en la vida de las personas como es el ordenador a los sectores de la población que tienen alguna discapacidad motora o movilidad reducida. Ya que vivimos en una sociedad tan informatizada, es esencial que, si se quiere hablar de inclusión social, se permita el acceso de la actual tecnología a esta parte de la población y no crear nuevas herramientas exclusivas para ellos, que generarían una situación de discriminación, aunque esta no sea intencionada. Debido a esto, es esencial que el diseño de Mokey sea simple e intuitivo, y al mismo tiempo que esté dotado de la suficiente versatilidad, para que el mayor número de personas discapacitadas puedan encontrar una configuración óptima para ellos. En el presente documento, tras exponer las motivaciones de este proyecto, se va a hacer un análisis detallado del estado del arte, tanto de la tecnología directamente implicada, como de otros proyectos similares. Se va prestar especial atención a la cámara Microsoft Kinect, ya que es el hardware que permite a Mokey detectar la captación de movimiento. Tras esto, se va a proceder a una explicación detallada de la Interfaz Natural desarrollada. Se va a prestar especial atención a todos aquellos algoritmos que han sido implementados para la detección del movimiento, así como para la simulación del teclado. Finalmente, se va realizar un análisis exhaustivo del funcionamiento de Mokey con otras aplicaciones. Se va a someter a una batería de pruebas muy amplia que permita determinar su rendimiento en las situaciones más comunes. Del mismo modo, se someterá a otra batería de pruebas destinada a definir su compatibilidad con los diferentes tipos de programas existentes en el mercado. Para una mayor precisión a la hora de analizar los datos, se va a proceder a comparar Mokey con otra herramienta similar, FAAST, pudiendo observar de esta forma las ventajas que tiene una aplicación especialmente pensada para gente discapacitada sobre otra que no tenía este fin. ABSTRACT. During the last few years, Augmented Reality has been an important part of several research projects, as the combination of the real world and the digital information offers a whole new set of possibilities. Among them, one of the most well-known possibilities are related to games by implementing Natural Interfaces, which main objective is to enable the user to handle an electronic device with their own actions, such as corporal movements, facial expressions… The present project shows the development of Mokey, a Natural Interface that simulates a keyboard by user’s corporal movements. Hence, any application that requires the use of a keyboard can be handled with this Natural Interface, even if the application was not designed in that way at the beginning. The main objective of Mokey is to simplify the use of the computer for those people that are handicapped or have some kind of reduced mobility. As our society has been almost completely digitalized, this kind of interfaces are essential to avoid social exclusion and discrimination, even when it is not intentional. Thus, some of the most important requirements of Mokey are its simplicity to use, as well as its versatility. In that way, the number of people that can find an optimal configuration for their particular condition will grow exponentially. After stating the motivations of this project, the present document will provide a detailed state of the art of both the technologies applied and other similar projects, highlighting the Microsoft Kinect camera, as this hardware allows Mokey to detect movements. After that, the document will describe the Natural Interface that has been developed, paying special attention to the algorithms that have been implemented to detect movements and synchronize the keyboard. Finally, the document will provide an exhaustive analysis of Mokey’s functioning with other applications by checking its behavior with a wide set of tests, so as to determine its performance in the most common situations. Likewise, the interface will be checked against another set of tests that will define its compatibility with different softwares that already exist on the market. In order to have better accuracy while analyzing the data, Mokey’s interface will be compared with a similar tool, FAAST, so as to highlight the advantages of designing an application that is specially thought for disabled people.
Resumo:
El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.
Resumo:
Hoy en día existe una preocupación creciente por la calidad del software entregado en los proyectos que se realizan a lo largo del mundo. El trabajo de fin de grado que va a ser desarrollado en estas páginas pretende demostrar la importancia de la realización de tests funcionales durante el proceso de desarrollo de software para que el proyecto alcance la calidad requerida tan demandada en estos días. Para ello, después de una pequeña introducción a la historia del software, se presentarán y compararán diversos tipos de metodologías de desarrollo de software, tanto pesadas (cascada, espiral, etc.) como ágiles (Extreme Programming y Scrum), se enfatizará en dichas metodologías ágiles y cómo el proceso de testing y control de calidad encaja perfectamente con la filosofía de las citadas metodologías ágiles. Se desarrollará una explicación del papel de QA en el desarrollo de software, asi como una explicación de los tipos de test existentes, y las herramientas, tecnologías y patrones que existen a disposición de aquellos que quieran desempeñar el papel de QA. Para complementar el punto de vista teórico de este trabajo se presentará un caso práctico real realizado en la empresa bq bajo una metodología Scrum. Dicho caso práctico muestra el uso de ciertas herramientas y su aporte para el control de calidad del proyecto bajo desarrollo, demostrando su importancia. Se realizará énfasis en el proceso de automatización de ciertas baterías de test (llamadas test suites), mostrando desde el planteamiento inicial de las diferentes historias de usuario y la batería de test, pasando por la elección de las tecnologías más adecuadas para la elaboración de los test hasta llegar al lanzamiento de dicha batería de pruebas y la comprobación de éstas. El punto de vista práctico quedará complementado por una explicación del framework nightwatch.js, framework utilizado en el desarrollo del proyecto en bq para la automatización de test funcionales. Esta explicación comprenderá tanto la configuración y uso del framework como el uso de patrones y la estructura de las pruebas. ABSTRACT Nowadays there is a growing concern about the Quality of the software delivered in the projects that are made all around the world. This final project will try to prove the importance of performing functional tests during the Software Development Process in order to be able to reach the demanded Quality. To fulfill this objective, different types of Software Development methodologies will be presented and compared. Heavy methodologies (waterfall, spiral methodologies, etc.) as well as agile methodologies (Extreme Programming and Scrum). There will be an emphasis in the second kind (agile methodologies) and how the testing and quality assurance process fits perfectly in their philosophy. A deep explanation of the role that Quality Assurance holds on software development will be presented, as well as an explanation on the current types of testing and an explanation of the different tools; technologies and patrons that exist to help anyone who wants to perform the role of QA. To complement the theoretical perspective of this work a real case study, performed at the company bq under a Scrum methodology, will be presented. The mentioned study covers the use of certain tools and their input for the quality assurance of the project under development, proving its relevance. Emphasis will be made in the process of conducting a set of tests (called test suite), showing from the initial approach of the different users stories and the set of tests, going through the choosing of the most suitable technologies for the tests development, and ending with the performance of this battery of tests and their checkout. The practical point of view will be complemented by a deep explanation of the creation process using the nightwatch.js automated test framework, used in the project in bq. This explanation will cover both the configuration and use of the framework as the use of patterns and structure of the tests.
Resumo:
En esta tesis se analiza el sistema de tracción de un vehículo eléctrico de batería desde el punto de vista de la eficiencia energética y de la exposición a campos magnéticos por parte de los pasajeros (radiación electromagnética). Este estudio incluye tanto el sistema de almacenamiento de energía como la máquina eléctrica, junto con la electrónica de potencia y los sistemas de control asociados a ambos. Los análisis y los resultados presentados en este texto están basados en modelos matemáticos, simulaciones por ordenador y ensayos experimentales a escala de laboratorio. La investigación llevada a cabo durante esta tesis tuvo siempre un marcado enfoque industrial, a pesar de estar desarrollada en un entorno de considerable carácter universitario. Las líneas de investigación acometidas tuvieron como destinatario final al diseñador y al fabricante del vehículo, a pesar de lo cual algunos de los resultados obtenidos son preliminares y/o excesivamente académicos para resultar de interés industrial. En el ámbito de la eficiencia energética, esta tesis estudia sistemas híbridos de almacenamiento de energía basados en una combinación de baterías de litio y supercondensadores. Este tipo de sistemas son analizados desde el punto de vista de la eficiencia mediante modelos matemáticos y simulaciones, cuantificando el impacto de ésta en otros parámetros tales como el envejecimiento de las baterías. Respecto a la máquina eléctrica, el estudio se ha centrado en máquinas síncronas de imanes permanentes. El análisis de la eficiencia considera tanto el diseño de la máquina como la estrategia de control, dejando parcialmente de lado el inversor y la técnica de modulación (que son incluidos en el estudio como fuentes adicionales de pérdidas, pero no como potenciales fuentes de optimización de la eficiencia). En este sentido, tanto la topología del inversor (trifásico, basado en IGBTs) como la técnica de modulación (control de corriente en banda de histéresis) se establecen desde el principio. El segundo aspecto estudiado en esta tesis es la exposición a campos magnéticos por parte de los pasajeros. Este tema se enfoca desde un punto de vista predictivo, y no desde un punto de vista de diagnóstico, puesto que se ha desarrollado una metodología para estimar el campo magnético generado por los dispositivos de potencia de un vehículo eléctrico. Esta metodología ha sido validada mediante ensayos de laboratorio. Otros aspectos importantes de esta contribución, además de la metodología en sí misma, son las consecuencias que se derivan de ella (por ejemplo, recomendaciones de diseño) y la comprensión del problema proporcionada por esta. Las principales contribuciones de esta tesis se listan a continuación: una recopilación de modelos de pérdidas correspondientes a la mayoría de dispositivos de potencia presentes en un vehículo eléctrico de batería, una metodología para analizar el funcionamiento de un sistema híbrido de almacenamiento de energía para aplicaciones de tracción, una explicación de cómo ponderar energéticamente los puntos de operación par-velocidad de un vehículo eléctrico (de utilidad para evaluar el rendimiento de una máquina eléctrica, por ejemplo), una propuesta de incluir un convertidor DC-DC en el sistema de tracción para minimizar las pérdidas globales del accionamiento (a pesar de las nuevas pérdidas introducidas por el propio DC-DC), una breve comparación entre dos tipos distintos de algoritmos de minimización de pérdidas para máquinas síncronas de imanes permanentes, una metodología predictiva para estimar la exposición a campos magnéticos por parte de los pasajeros de un vehículo eléctrico (debida a los equipos de potencia), y finalmente algunas conclusiones y recomendaciones de diseño respecto a dicha exposición a campos magnéticos. ABSTRACT This dissertation analyzes the powertrain of a battery electric vehicle, focusing on energy efficiency and passenger exposure to electromagnetic fields (electromagnetic radiation). This study comprises the energy storage system as well as the electric machine, along with their associated power electronics and control systems. The analysis and conclusions presented in this dissertation are based on mathematical models, computer simulations and laboratory scale tests. The research performed during this thesis was intended to be of industrial nature, despite being developed in a university. In this sense, the work described in this document was carried out thinking of both the designer and the manufacturer of the vehicle. However, some of the results obtained lack industrial readiness, and therefore they remain utterly academic. Regarding energy efficiency, hybrid energy storage systems consisting in lithium batteries, supercapacitors and up to two DC-DC power converters are considered. These kind of systems are analyzed by means of mathematical models and simulations from the energy efficiency point of view, quantifying its impact on other relevant aspects such as battery aging. Concerning the electric machine, permanent magnet synchronous machines are studied in this work. The energy efficiency analysis comprises the machine design and the control strategy, while the inverter and its modulation technique are taken into account but only as sources of further power losses, and not as potential sources for further efficiency optimization. In this sense, both the inverter topology (3-phase IGBT-based inverter) and the switching technique (hysteresis current control) are fixed from the beginning. The second aspect studied in this work is passenger exposure to magnetic fields. This topic is approached from the prediction point of view, rather than from the diagnosis point of view. In other words, a methodology to estimate the magnetic field generated by the power devices of an electric vehicle is proposed and analyzed in this dissertation. This methodology has been validated by laboratory tests. The most important aspects of this contribution, apart from the methodology itself, are the consequences (for instance, design guidelines) and the understanding of the magnetic radiation issue provided by it. The main contributions of this dissertation are listed next: a compilation of loss models for most of the power devices found in a battery electric vehicle powertrain, a simulation-based methodology to analyze hybrid energy storage performance in traction applications, an explanation of how to assign energy-based weights to different operating points in traction drives (useful when assessing electrical machine performance, for instance), a proposal to include one DC-DC converter in electric powertrains to minimize overall power losses in the system (despite the new losses added by the DC-DC), a brief comparison between two kinds of loss-minimization algorithms for permanent magnet synchronous machines in terms of adaptability and energy efficiency, a predictive methodology to estimate passenger magnetic field exposure due to power devices in an electric vehicle, and finally some useful conclusions and design guidelines concerning magnetic field exposure.
Resumo:
Development of a Sensorimotor Algorithm Able to Deal with Unforeseen Pushes and Its Implementation Based on VHDL is the title of my thesis which concludes my Bachelor Degree in the Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación of the Universidad Politécnica de Madrid. It encloses the overall work I did in the Neurorobotics Research Laboratory from the Beuth Hochschule für Technik Berlin during my ERASMUS year in 2015. This thesis is focused on the field of robotics, specifically an electronic circuit called Cognitive Sensorimotor Loop (CSL) and its control algorithm based on VHDL hardware description language. The reason that makes the CSL special resides in its ability to operate a motor both as a sensor and an actuator. This way, it is possible to achieve a balanced position in any of the robot joints (e.g. the robot manages to stand) without needing any conventional sensor. In other words, the back electromotive force (EMF) induced by the motor coils is measured and the control algorithm responds depending on its magnitude. The CSL circuit contains mainly an analog-to-digital converter (ADC) and a driver. The ADC consists on a delta-sigma modulation which generates a series of bits with a certain percentage of 1's and 0's, proportional to the back EMF. The control algorithm, running in a FPGA, processes the bit frame and outputs a signal for the driver. This driver, which has an H bridge topology, gives the motor the ability to rotate in both directions while it's supplied with the power needed. The objective of this thesis is to document the experiments and overall work done on push ignoring contractive sensorimotor algorithms, meaning sensorimotor algorithms that ignore large magnitude forces (compared to gravity) applied in a short time interval on a pendulum system. This main objective is divided in two sub-objectives: (1) developing a system based on parameterized thresholds and (2) developing a system based on a push bypassing filter. System (1) contains a module that outputs a signal which blocks the main Sensorimotor algorithm when a push is detected. This module has several different parameters as inputs e.g. the back EMF increment to consider a force as a push or the time interval between samples. System (2) consists on a low-pass Infinite Impulse Response digital filter. It cuts any frequency considered faster than a certain push oscillation. This filter required an intensive study on how to implement some functions and data types (fixed or floating point data) not supported by standard VHDL packages. Once this was achieved, the next challenge was to simplify the solution as much as possible, without using non-official user made packages. Both systems behaved with a series of interesting advantages and disadvantages for the elaboration of the document. Stability, reaction time, simplicity or computational load are one of the many factors to be studied in the designed systems. RESUMEN. Development of a Sensorimotor Algorithm Able to Deal with Unforeseen Pushes and Its Implementation Based on VHDL es un Proyecto de Fin de Grado (PFG) que concluye mis estudios en la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación de la Universidad Politécnica de Madrid. En él se documenta el trabajo de investigación que realicé en el Neurorobotics Research Laboratory de la Beuth Hochschule für Technik Berlin durante el año 2015 mediante el programa de intercambio ERASMUS. Este PFG se centra en el campo de la robótica y en concreto en un circuito electrónico llamado Cognitive Sensorimotor Loop (CSL) y su algoritmo de control basado en lenguaje de modelado hardware VHDL. La particularidad del CSL reside en que se consigue que un motor haga las veces tanto de sensor como de actuador. De esta manera es posible que las articulaciones de un robot alcancen una posición de equilibrio (p.ej. el robot se coloca erguido) sin la necesidad de sensores en el sentido estricto de la palabra. Es decir, se mide la propia fuerza electromotriz (FEM) inducida sobre el motor y el algoritmo responde de acuerdo a su magnitud. El circuito CSL se compone de un convertidor analógico-digital (ADC) y un driver. El ADC consiste en un modulador sigma-delta, que genera una serie de bits con un porcentaje de 1's y 0's determinado, en proporción a la magnitud de la FEM inducida. El algoritmo de control, que se ejecuta en una FPGA, procesa esta cadena de bits y genera una señal para el driver. El driver, que posee una topología en puente H, provee al motor de la potencia necesaria y le otorga la capacidad de rotar en cualquiera de las dos direcciones. El objetivo de este PFG es documentar los experimentos y en general el trabajo realizado en algoritmos Sensorimotor que puedan ignorar fuerzas de gran magnitud (en comparación con la gravedad) y aplicadas en una corta ventana de tiempo. En otras palabras, ignorar empujones conservando el comportamiento original frente a la gravedad. Para ello se han desarrollado dos sistemas: uno basado en umbrales parametrizados (1) y otro basado en un filtro de corte ajustable (2). El sistema (1) contiene un módulo que, en el caso de detectar un empujón, genera una señal que bloquea el algoritmo Sensorimotor. Este módulo recibe diferentes parámetros como el incremento necesario de la FEM para que se considere un empujón o la ventana de tiempo para que se considere la existencia de un empujón. El sistema (2) consiste en un filtro digital paso-bajo de respuesta infinita que corta cualquier variación que considere un empujón. Para crear este filtro se requirió un estudio sobre como implementar ciertas funciones y tipos de datos (coma fija o flotante) no soportados por las librerías básicas de VHDL. Tras esto, el objetivo fue simplificar al máximo la solución del problema, sin utilizar paquetes de librerías añadidos. En ambos sistemas aparecen una serie de ventajas e inconvenientes de interés para el documento. La estabilidad, el tiempo de reacción, la simplicidad o la carga computacional son algunas de las muchos factores a estudiar en los sistemas diseñados. Para concluir, también han sido documentadas algunas incorporaciones a los sistemas: una interfaz visual en VGA, un módulo que compensa el offset del ADC o la implementación de una batería de faders MIDI entre otras.
Resumo:
El temblor esencial es la segunda enfermedad neurológica más frecuente, y en población anciana una de las más incapacitantes. En la actualidad ha crecido el debate sobre los problemas no motores asociados al temblor esencial, y han sido varios los estudios que han encontrado un rendimiento cognitivo bajo en los sujetos con temblor esencial en comparación con datos normativos y con controles. Pero estos estudios tienen un tamaño muestral pequeño o utilizan protocolos cognitivos breves. En este trabajo utilizamos una muestra mayor de sujetos con temblor esencial comparando su rendimiento cognitivo, su perfil de personalidad y puntuación en depresión con un grupo de sujetos sanos y con un grupo de enfermos de Parkinson, entidad que tiene características comunes con el temblor esencial. Los objetivos del presente estudio son describir el perfil cognitivo de los pacientes con temblor esencial, estudiar las variables de personalidad y los síntomas depresivos en comparación con el grupo control y el grupo de pacientes con Parkinson. Seleccionamos 96 sujetos, donde 32 sufren temblor esencial, 32 enfermedad de Parkinson y 32 sujetos sanos, homogéneos en edad, sexo y nivel educativo. Recogimos datos de diferentes variables médicas. Aplicamos una batería neuropsicológica completa que evaluaba funciones atencionales, visuoespaciales y ejecutivas, memoria verbal y visual y lenguaje, además de pasar un test de evaluación de alteraciones emocionales y de personalidad. Para los análisis estadísticos utilizamos el análisis de varianza para comparar entre grupos en las variables cuantitativas y el chi-cuadrado para las cualitativas. Aplicamos correlaciones para estudiar la relación de la gravedad y evolución de la enfermedad con los diferentes test. Y realizamos un modelo de regresión con los test como variable dependiente y las diferentes variables sociodemográficas como independientes. El resultado del estudio es que sí existen diferencias cognitivas entre los temblores esenciales y el grupo control, en diferentes dominios cognitivos: atención, funciones ejecutivas, memoria verbal y lenguaje. Pero no se observan diferencias en el rendimiento cognitivo al compararse con los sujetos con Parkinson. La puntuación del test de depresión no existen diferencias entre los grupos. En la escala de personalidad sí se observa que los sujetos con temblor esencial muestra más ansiedad y depresión que los sujetos control, mientras que solo se diferencian en la subescala de trastorno límite con los enfermos de Parkinson. Con estos resultados concluimos que existen diferencias entre los sujetos con temblor esencial y los sujetos sanos en el rendimiento cognitivo, por tanto, la enfermedad sí está influyendo en el rendimiento cognitivo de los pacientes con esta entidad. Pero no observamos diferencias cognitivas con los participantes con enfermedad de Parkinson por lo que ambas enfermedades tienen puntos en común, ya sea a nivel estructural cerebral o como otros autores defienden, sean entidades de un mismo continuo.
Resumo:
En la presente investigación, se analiza un caso en el que se pone de manifiesto el incumplimiento de las instituciones públicas en sus obligaciones sociales y medioambientales, así como el no cumplimiento de su compromiso de transparencia informativa con los ciudadanos. Si atendemos a que la responsabilidad social corporativa (RSC) es centro de preocupación de las empresas de nuestro siglo en lo que se refiere al tipo de obligaciones que tienen con el resto de personas e instituciones, mucho mayor debe ser el interés de los organismos públicos al servicio de la ciudadanía, del medio ambiente y del patrimonio histórico, puesto que se supone que son aspectos inherentes a su idiosincrasia. Si bien sorprende toda la batería de acciones irresponsables desencadenadas por el vertido de sedimentos del puerto en una playa colindante al mismo y reconocida como espacio protegible -parece que ser responsable es más una imposición que parte de su esencia institucional-, nos sorprende, aún más si cabe, la ausencia informativa por parte de las autoridades cuando se les pide explicaciones por estas actuaciones (contra)públicas. El significado de “Responsabilidad” (RAE, 2001:1959) implica la cualidad de responsable, cuya raíz etimológica proviene del latín ‘responsum’, del verbo ‘respondere’. Por tanto, atendiendo a esta definición, el estudio de este caso deja en evidencia la doble falta de responsabilidad de los organismos públicos competentes. Desde la óptica de las relaciones públicas, el profesional de la comunicación busca el consenso entre la organización y los públicos. Según Grunig (Grunig, Grunig y Dozier, 2002:96-97) “La comunicación sirve al objeto de lograr el consenso o negociación de intereses contribuyendo a reconciliar los intereses encontrados de organización y públicos”. En el caso que nos ocupa, no debería ser difícil la tarea del comunicador del organismo público, puesto que si en su naturaleza está servir al ciudadano, que es quien lo ha elegido, los intereses deben ser más coincidentes que divergentes. En este caso, el modelo conductual empleado para comunicarse con los ciudadanos no responde a los modelos bidireccionales de las relaciones públicas que tienen como fin el entendimiento mutuo. Con el asimétrico bidireccional se persigue la responsabilidad social y en el simétrico, la responsabilidad es un aspecto implícito en el modelo. Sin embargo, lejos de nuestro pensamiento el modelo utilizado para responder a los ciudadanos ante esta situación ha sido el agente de prensa/publicity, caracterizado por evitar la información inoportuna, información que puede perjudicar a los propios emisores y que no responde a satisfacer las necesidades económicas, sociales, culturales o políticas de quien demanda la información, que, por otro lado, supone vulnerar el bienestar en la sociedad como parte de la responsabilidad social, política, económica, cultural o medioambiental de los organismos al servicio de la ciudadanía.
Resumo:
Introduction. The purpose of this study is to describe and characterize the international sci-entific output relating to “attitudes towards disability in education”, using a battery of bibliometric indicators that make it possible to analyze and monitor international scientific activity. Method. This ex post facto retrospective study analyzed 925 papers published in the Social Sciences Citation Index (SSCI) database during the period 2000-2011. Results. The number of publications increased steadily between 2006 and 2010. The results reported here include the most productive authors, the journals that deal with this topic, and the articles cited most often. An analysis of research types showed a tendency toward empiri-cal studies. A total of 18 categories were identified when considering article content, and the distribution of the research studies across stages of education was found to be uneven. Discussion and Conclusion. The results reveal a topic that is highly current in today’s scien-tific community, and offer us a view of the traits that have characterized research on "attitudes towards disability in education" for the last eleven years.
Resumo:
Se trata de una propuesta didáctica basada en el diseño de nuevas estrategias de enseñanza y aprendizaje, consistente en la elaboración de una programación de la asignatura de Didáctica de las Ciencias Sociales: Historia, en la que la teoría y la práctica están totalmente integradas de manera que la realización de la práctica suponga un avance más eficaz en el conocimiento y aprendizaje teórico. Para ello se ha utilizado una metodología activa, fundamentada en el desarrollo del pensamiento visible, en dónde el alumno es el sujeto sobre el que descansa toda la responsabilidad de su propio aprendizaje, pero siempre bajo la supervisión y colaboración del docente. También se ha incluido una batería de cuestiones sobre la docencia en la enseñanza de la Historia que inducen a la reflexión y al debate. De igual manera se ha modificado el modelo de evaluación, de forma que ésta sea formativa, no sumativa, y en la que el alumnado demuestra no solo su conocimiento, sino su saber hacer utilizando una gran variedad de instrumentos que le facilitan su planteamiento didáctico como futuro docente y su capacidad para ser consciente de su propio pensamiento, haciéndolo más visible para él mismo y para los demás.
Resumo:
El presente proyecto se enmarca en el contexto del desarrollo de vectores de energía, particularmente aquellos destinados a almacenar la energía captada desde fuentes alternativas y sustentables, como son las energías eólica y solar, entre otras. Uno de los vectores de energía actualmente más importante lo constituyen las baterías de ión-Litio, las que por sus características de pequeño tamaño, alta densidad de energía y potencia, y larga ciclabilidad, son ampliamente utilizadas para alimentar todos los dispositivos electrónicos de pequeño tamaño (teléfonos móviles, notebooks, etc.). Este tipo de batería es, hasta el momento, la única que puede satisfacer la demanda de voltaje e intensidad de corriente, junto con bajo peso y volumen, del motor de un vehículo eléctrico, por lo que se espera un gran crecimiento de su demanda cuando comience la consolidación del mercado de este tipo de vehículos. Sin embargo, esto sólo será posible con importantes mejoras en los materiales activos que componen ambos electrodos, ánodo y cátodo, y/o con el desarrollo de nuevos materiales activos, que incrementen aun más la densidad de energía almacenada en dichas batería. En la Universidad Nacional de Córdoba hemos constituido un grupo de trabajo abocado a la investigación y desarrollo de materiales activos para ser utilizados como electrodos en este tipo de baterías, un área de investigación que concentra cada vez más la atención de científicos y tecnólogos en todo el mundo, particularmente, de países líderes del sector de electrónica y automotriz. Entre los objetivos del proyecto se pueden mencionar la intención de desarrollar capacidades científicas y técnicas en aspectos de investigación básica y tecnológica de sistemas electroquímicos de almacenamiento de energía, mediante la instalación de un laboratorio de síntesis, caracterización, investigación y ensayo de materiales activos para electrodos de baterías de ión-Litio. Específicamente, se llevará adelante la preparación y estudio electroquímico de materiales de ánodo en base a diferentes tipos de carbonos, de diferentes compuestos de titanatos de metales alcalinos, y de materiales de cátodo en base a diferentes tipos de compuestos de espinelas de fosfato de M-Litio, donde M puede ser Fe, Mn, Ni, Co o mezclas, y el ensayo posterior de celdas prototipo. La metodología de trabajo a aplicar es la del estado-del-arte a nivel mundial, que consiste en las etapas de síntesis, caracterización y estudio de funcionamiento de diferentes tipos de materiales activos para electrodos (ánodo o cátodo) de baterías de ión-Litio. Los procesos de síntesis comprenderán métodos por vía seca desde precursores adecuados (tratamientos térmicos) o por vía húmeda (hidrotermal, sol-gel). La caracterización física, química, estructural y morfológica abarcará la aplicación de técnicas de análisis de área específica y porosidad por método BET, microscopías SEM y TEM, análisis químico EDX, difracción de rayos X, espectroscopías XPS y Raman, y RMN, entre otras. Los estudios electroquímicos se llevarán a cabo utilizando técnicas potenciodinámicas, de multipulsos de potencial, galvanostáticas a diferentes densidades de corriente, espectroscopía de impedancia electroquímica y de ciclados de carga/descarga. Con la ejecución del proyecto se espera obtener materiales activos para electrodos de baterías de ión-Litio que cumplan con características tales como: alta capacidad de carga, adecuada densidad de potencia, alto grado de ciclabilidad, alto grado de seguridad, alta resistencia al envejecimiento, tanto estático como dinámico, y bajo costo del material. Teniendo en cuenta la inminente crisis en la producción mundial de combustibles fósiles líquidos, la necesidad de mudar la tecnología de vehículos actuales a la de vehículos eléctricos, y la disponibilidad nacional de recursos minerales de litio, la importancia del proyecto es directa para avanzar hacia un desarrollo tecnológico regional propio e independiente.
Resumo:
Este trabajo analiza el funcionamiento del sistema de financiación de las Comunidades Autónomas de régimen común en España aprobado en la Ley 22/2009, desde la perspectiva específica del análisis de sus mecanismos de nivelación. Con esa finalidad,se propone una batería de indicadores de reordenación, indicadores de intensidad de la nivelación e indicadores de distorsiones de la nivelación que se aplica para la evaluación del desempeño del sistema vigente, en comparación con el aprobado en 2001, y que puede asimismo utilizarse para la evaluación de sistemas comparados. Los resultados ponen de manifiesto que el sistema aprobado en 2009 mejora el funcionamiento del sistema anterior, en la medida en que aumenta la intensidad de la nivelación y se reduce la prevalencia y la intensidad de las principales distorsiones que se detectaban en sus resultados de nivelación (reordenaciones. sobrenivelaciones y desnivelaciones).
Resumo:
Actualmente vivimos en una época de cambios en la que podemos ver como las tecnologías están presentes en todos lo ámbitos de nuestra vida y cada día avanzan más rápido. Es por eso que el objetivo principal de este trabajo de fin de grado es una propuesta para la innovación educativa, en colaboración con la Universidad Autónoma de Madrid, de actualizar la educación a los tiempos que corren, de utilizar las tecnologías que tenemos a nuestra disposición para facilitar tanto a profesores como a alumnos la labor de enseñanza y aprendizaje. Este proyecto es de nueva creación y se propone la creación de una plataforma móvil que incorpore información creada por los propios alumnos, para que puedan, estudiar o repasar contenidos vistos en clase directamente en sus propios móviles. Para ello se van a utilizar herramientas de desarrollo de aplicaciones móviles, en nuestro caso Android Studio. Como propósito se encuentra el crear una aplicación que sea funcional en la mayoría de los dispositivos actuales, y que por lo tanto no requiera de unas altas especificaciones para su correcto funcionamiento, ni tenga requerimientos excesivos de memoria y batería. También se ha diseñado una plataforma web a través del cual los usuario incluyan su propia información. Se propone estudiar también como los alumnos aceptan este tipo de propuesta.
Resumo:
Es necesario reflexionar que al decir "nuevo", no implica pensar "mejor". No hablamos de un sujeto social que necesariamente o por "imperio del devenir histórico" ejerce su ciudadanía. No es así, hablamos del sujeto a descubrir, desmembrado de la red social que le dio origen, atravesado por múltiples variables que conforman una batería opuesta a las variables propias del Desarrollo humano. Nos interrogamos acerca del "nuevo sujeto social de las pobrezas". Y nos interesa observar cómo opera la idea madre de Desarrollo Humano en consonancia con la diversidad cultural, étnica y las crisis de alteridad. Para ello tenemos en cuenta que la pobreza no tiene la misma representación social para todas las culturas y étnias. El abordaje que proponemos se realiza desde un concepto pedagógico dialéctico y dialógico que opera con los procesos alfabetizatorios múltiples, entendidos como aquellos procesos de enseñanza-aprendizaje que en su dimensión social se manifiestan en el plano material y simbólico (discursivo) como estrategias articuladoras para el Desarrollo Humano. Esta reflexión se enmarca en el taller "Las Alfabetizaciones: ¿Estrategias para el desarrollo humano?" realizado durante el transcurso de este año. La mirada y la acción propuesta desde la doble hermenéutica atraviesan tres instancias: 1- La propia del aprendizaje del taller, plasmada en la interacción docente-alumno. 2- La propia del curso en el abordaje específico de las temáticas planteadas en la reflexión metodológica y sociológica. 3- La experiencia pedagógica y, a través de ésta, la propuesta de investigación diseñada por los cursantes
Resumo:
El objetivo fue relacionar características de la composición corporal con la capacidad física en un grupo de escolares de la comuna de Quintero, Chile. El grupo evaluado perteneció a 141 niños y niñas de 4° básico (10,02 ± 0,78 años) y 8° básico (14,07± 0,95 años). Para determinar la capacidad física se utilizó la batería de test LECOFQ, el estado nutricional se determinó con el IMC y el porcentaje de masa adiposa con dos pliegues (Slaughter, 1988). Los resultados evidenciaron altos índices de sobrepeso y obesidad. Existieron diferencias significativas entre damas y varones de 4° básico en la variable índice de masa corporal (p=0,001). En 8° básico existieron diferencias significativas en las variables porcentaje de masa grasa (p=0,000) test de salto horizontal (p=0,000) y test de Navette (p=0,000), entre otros. Se aprecia que mayores niveles de grasa corporal se relacionaron negativamente con los test físicos de salto horizontal, velocidad y test de Navette (p<0,05). En 8o año básico se expresan diferencias significativas por género en la masa grasa y capacidad física. Se concluye que un aumento del tejido adiposo influye negativamente en el rendimiento motriz en esta población.
Resumo:
Es necesario reflexionar que al decir "nuevo", no implica pensar "mejor". No hablamos de un sujeto social que necesariamente o por "imperio del devenir histórico" ejerce su ciudadanía. No es así, hablamos del sujeto a descubrir, desmembrado de la red social que le dio origen, atravesado por múltiples variables que conforman una batería opuesta a las variables propias del Desarrollo humano. Nos interrogamos acerca del "nuevo sujeto social de las pobrezas". Y nos interesa observar cómo opera la idea madre de Desarrollo Humano en consonancia con la diversidad cultural, étnica y las crisis de alteridad. Para ello tenemos en cuenta que la pobreza no tiene la misma representación social para todas las culturas y étnias. El abordaje que proponemos se realiza desde un concepto pedagógico dialéctico y dialógico que opera con los procesos alfabetizatorios múltiples, entendidos como aquellos procesos de enseñanza-aprendizaje que en su dimensión social se manifiestan en el plano material y simbólico (discursivo) como estrategias articuladoras para el Desarrollo Humano. Esta reflexión se enmarca en el taller "Las Alfabetizaciones: ¿Estrategias para el desarrollo humano?" realizado durante el transcurso de este año. La mirada y la acción propuesta desde la doble hermenéutica atraviesan tres instancias: 1- La propia del aprendizaje del taller, plasmada en la interacción docente-alumno. 2- La propia del curso en el abordaje específico de las temáticas planteadas en la reflexión metodológica y sociológica. 3- La experiencia pedagógica y, a través de ésta, la propuesta de investigación diseñada por los cursantes