1000 resultados para Aerolíneas de bajo coste


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto fin de carrera trata de mejorar los sistemas actuales de control en la visualización de diapositivas. La solución adoptada constará de un sistema con modelo cliente-servidor. El servidor formado por un mini ordenador, en este caso una Raspberry Pi, que estará conectado al proyector de video. Este servidor se mantendrá a la espera de recibir una conexión entrante vía Bluetooth. Una vez se realice la conexión interpretará los comandos mandados por el cliente a través de una API con formato JSON y realizará las acciones indicadas para el control de la presentación. El cliente será una aplicación móvil para dispositivos Android. A través de ella el profesor accederá al servidor escaneando un código QR que será proyectado y una vez conectado enviará los comandos de control de la presentación, tales como abrir una presentación, avanzar y retroceder diapositiva, etc. La solución final deberá ser eficiente, sencilla de utilizar y con un bajo coste para resultar atractiva y ser así útil en el mundo real. Para ello se contará con valores añadidos como el poder iniciar la presentación desde el dispositivo móvil, el mostrar las notas de la diapositiva actual o contar con un temporizador para permitir un mejor control sobre el tiempo disponible para la presentación. ABSTRACT. This final project pursues the improvement of the current presentation control systems. The solution it provides is based on a server-client architecture. The server will be a mini PC, a Raspberry Pi model in this case, that will be connected to a video projector or a screen monitor. This server will remain idle waiting for an incoming Bluetooth connection. Once the connection is accepted the server will parse the commands sent by the client through a JSON API and will execute them accordingly to control the system. The client we decided to develop is an Android application. The speaker will be able to connect with the server by scanning a QR code that will be generated and displayed into the projector or screen monitor. Once the connection is accepted the client will sent the commands to control the slides, such as opening a presentation, move forward and backwards, etc. The adopted solution must be efficient, easy to use and with low cost to be appealing and useful to the real world. To accomplish the task this project will count with improvements over the current systems, such as the possibility to open a presentation from the smartphone, the visualization of the current slide notes from the mobile phone and a countdown timer to have a better control over the available time for the presentation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se va a realizar un estudio de la codificación de imágenes sobre el estándar HEVC (high-effiency video coding). El proyecto se va a centrar en el codificador híbrido, más concretamente sobre la aplicación de la transformada inversa del coseno que se realiza tanto en codificador como en el descodificador. La necesidad de codificar vídeo surge por la aparición de la secuencia de imágenes como señales digitales. El problema principal que tiene el vídeo es la cantidad de bits que aparecen al realizar la codificación. Como consecuencia del aumento de la calidad de las imágenes, se produce un crecimiento exponencial de la cantidad de información a codificar. La utilización de las transformadas al procesamiento digital de imágenes ha aumentado a lo largo de los años. La transformada inversa del coseno se ha convertido en el método más utilizado en el campo de la codificación de imágenes y video. Las ventajas de la transformada inversa del coseno permiten obtener altos índices de compresión a muy bajo coste. La teoría de las transformadas ha mejorado el procesamiento de imágenes. En la codificación por transformada, una imagen se divide en bloques y se identifica cada imagen a un conjunto de coeficientes. Esta codificación se aprovecha de las dependencias estadísticas de las imágenes para reducir la cantidad de datos. El proyecto realiza un estudio de la evolución a lo largo de los años de los distintos estándares de codificación de video. Se analiza el codificador híbrido con más profundidad así como el estándar HEVC. El objetivo final que busca este proyecto fin de carrera es la realización del núcleo de un procesador específico para la ejecución de la transformada inversa del coseno en un descodificador dedeo compatible con el estándar HEVC. Es objetivo se logra siguiendo una serie de etapas, en las que se va añadiendo requisitos. Este sistema permite al diseñador hardware ir adquiriendo una experiencia y un conocimiento más profundo de la arquitectura final. ABSTRACT. A study about the codification of images based on the standard HEVC (high-efficiency video coding) will be developed. The project will be based on the hybrid encoder, in particular, on the application of the inverse cosine transform, which is used for the encoder as well as for the decoder. The necessity of encoding video arises because of the appearance of the sequence of images as digital signals. The main problem that video faces is the amount of bits that appear when making the codification. As a consequence of the increase of the quality of the images, an exponential growth on the quantity of information that should be encoded happens. The usage of transforms to the digital processing of images has increased along the years. The inverse cosine transform has become the most used method in the field of codification of images and video. The advantages of the inverse cosine transform allow to obtain high levels of comprehension at a very low price. The theory of the transforms has improved the processing of images. In the codification by transform, an image is divided in blocks and each image is identified to a set of coefficients. This codification takes advantage of the statistic dependence of the images to reduce the amount of data. The project develops a study of the evolution along the years of the different standards in video codification. In addition, the hybrid encoder and the standard HEVC are analyzed more in depth. The final objective of this end of degree project is the realization of the nucleus from a specific processor for the execution of the inverse cosine transform in a decoder of video that is compatible with the standard HEVC. This objective is reached following a series of stages, in which requirements are added. This system allows the hardware designer to acquire a deeper experience and knowledge of the final architecture.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El sistema energético mundial actual es insostenible a largo plazo debido a la fuerte presencia de los combustibles fósiles. Es por ello que se está llevando a cabo gradualmente un proceso de cambio de modelo energético, teniendo como base la incorporación de las energías renovables. Dentro de este tipo de energías la energía solar, tanto fotovoltaica como de concentración, es una de las tecnologías con más crecimiento y potencial en el futuro. Las mejoras en materiales y dispositivos en energía solar permiten la reducción de costes y la mejora de la eficiencia causando un aumento en la competitividad de esta tecnología. El objetivo de este proyecto es el de diseñar y construir un sistema de orientación solar electrónico. Para ello será necesario la utilización de sensores de luminosidad, un controlador y un motor eléctrico. El sistema detectará el punto de mayor intensidad lumínica y orientará la superficie de una placa hacia este punto. El proyecto se desarrollará empleando la plataforma Arduino, una serie de micro procesadores de libre acceso destinados al uso en aplicaciones de electrónica general en el ámbito educativo y de bajo coste. Todo el sistema estará dirigido por un programa que controlará las lecturas de luz y el movimiento del motor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La gasificación de lodos de depuración consiste en la conversión termoquímica del lodo por oxidación parcial a alta temperatura mediante un agente gasificante, que generalmente es aire, oxígeno o vapor de agua. Se trata de una tecnología de gran interés, ya que consigue reducir la masa de estos residuos y permite el aprovechamiento de los gases formados, tanto en la generación de energía térmica y/o eléctrica como en la síntesis de productos químicos orgánicos y combustibles líquidos. Debido a la complejidad de este proceso, es útil el uso de modelos que faciliten su estudio de forma fiable y a bajo coste. El presente Proyecto Fin de Carrera se centra en el diseño de un modelo adimensional de equilibrio en estado estacionario basado en la minimización de la energía libre de Gibbs. Para ello, se ha empleado el software de simulación de procesos Aspen Plus, que posee una amplia base de datos de propiedades físicas y permite gran flexibilidad en el manejo de sólidos. Para la elaboración del modelo se han asumido las hipótesis de mezcla perfecta dentro del reactor y operación isoterma. El gasificador se ha considerado de lecho fluidizado burbujeante, al permitir un buen control de la temperatura y una alta transferencia de materia y energía entre el sólido y el agente gasificante. El modelo desarrollado consta de cuatro etapas. La primera reproduce el proceso de pirólisis o descomposición térmica de los componentes del lodo en ausencia de agente gasificante. En la segunda etapa se simula que todo el nitrógeno y el azufre contenidos en el lodo se transforman en amoniaco y ácido sulfhídrico, respectivamente. En la tercera etapa se produce la gasificación en dos reactores. El primer gasificador alcanza el equilibrio químico mediante la minimización de la energía libre de Gibbs del sistema. En el segundo reactor se establece un equilibrio restringido por medio de la especificación de una aproximación de temperatura para cada reacción. Este método permite validar los resultados del modelo con datos reales. En la última etapa se separa el residuo carbonoso o char (compuesto por carbono y cenizas) del gas de salida, formado por N2, H2, CO, CO2, CH4 (supuesto como único hidrocarburo presente), NH3, H2S y H2O. Este gas debe ser depurado mediante equipos de limpieza aguas abajo. Los resultados de la simulación del modelo han sido validados frente a los valores obtenidos en ensayos previos llevados a cabo en la planta de gasificación a escala de laboratorio ubicada en el Departamento de Ingeniería Química Industrial y del Medio Ambiente de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Estos resultados han mostrado muy buena concordancia con los obtenidos experimentalmente, con un error inferior al 7% en todos los parámetros analizados en el caso de gasificación con aire y menor al 13% cuando se utiliza una mezcla aire/vapor de agua como agente gasificante. Se ha realizado un análisis de sensibilidad con el fin de estudiar la influencia de las condiciones de operación (temperatura, ratio equivalente y ratio vapor/biomasa) sobre los resultados del proceso modelado (composición, producción y poder calorífico inferior de los gases, conversión de carbono y eficiencia de la gasificación). Para ello, se han llevado a cabo diferentes simulaciones modificando la temperatura de gasificación entre 750ºC y 850ºC, el ratio equivalente (ER) entre 0,2 y 0,4 y el ratio vapor/biomasa (S/B) entre 0 y 1. Como ya ocurriera con la validación del modelo, los resultados de las simulaciones bajo las distintas condiciones de gasificación se ajustan de forma satisfactoria a los valores experimentales. Se ha encontrado que un aumento en la temperatura mejora la cantidad y la calidad del gas producido y, por tanto, la eficiencia del proceso. Un incremento del ratio equivalente reduce la concentración de CO y H2 en el gas y, en consecuencia, también su poder calorífico. Sin embargo, valores bajos del ratio equivalente disminuyen la producción de gases y la conversión de carbono. La alimentación de vapor de agua en el sistema mejora todos los parámetros analizados. Por tanto, dentro del rango estudiado, las condiciones de operación que optimizan el proceso de gasificación de lodos consisten en el empleo de mezclas aire/vapor de agua como agente gasificante, una temperatura de 850ºC y un ER de 0,3.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta investigación surge de la necesidad de atender la educación emocional en el ámbito universitario y para ello, se crea un Programa de Inteligencia Emocional Intensivo (PIEI en adelante) para aplicar a los estudiantes universitarios. El título de esta tesis: “Eficacia del Programa Educativo PIEI y su relación con la inteligencia emocional autoinformada y la autopercepción de competencias emocionales adquiridas, en estudiantes universitarios” apoya el objetivo de conocer si en este estudio existe impacto en inteligencia emocional autoinformada y la autopercepción de competencias emocionales, en estudiantes (hombres y mujeres) pertenecientes a diferentes universidades de la Comunidad de Madrid. La misión es conocer la eficacia de este programa formativo PIEI y saber si tras su aplicación: • Se muestra alguna diferencia estadísticamente significativa en inteligencia emocional autoinformada (atención, claridad y reparación emocional). • Se produce alguna diferencia en la autopercepción de competencias emocionales adquiridas, relativas a conciencia emocional, regulación emocional e inteligencia interpersonal. • Se puede generalizar su aplicación a más ámbitos de intervención, además del educativo, tales como el empresarial, sanitario, social y deportivo. • Se puede expandir su eficacia con rapidez, a nivel nacional e internacional, gracias a sus condiciones innovadoras de aplicabilidad: breve duración y bajo coste económico...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Predecir la función biológica de secuencias de Ácido Desoxirribonucleico (ADN) es unos de los mayores desafíos a los que se enfrenta la Bioinformática. Esta tarea se denomina anotación funcional y es un proceso complejo, laborioso y que requiere mucho tiempo. Dado su impacto en investigaciones y anotaciones futuras, la anotación debe ser lo más able y precisa posible. Idealmente, las secuencias deberían ser estudiadas y anotadas manualmente por un experto, garantizando así resultados precisos y de calidad. Sin embargo, la anotación manual solo es factible para pequeños conjuntos de datos o genomas de referencia. Con la llegada de las nuevas tecnologías de secuenciación, el volumen de datos ha crecido signi cativamente, haciendo aún más crítica la necesidad de implementaciones automáticas del proceso. Por su parte, la anotación automática es capaz de manejar grandes cantidades de datos y producir un análisis consistente. Otra ventaja de esta aproximación es su rapidez y bajo coste en relación a la manual. Sin embargo, sus resultados son menos precisos que los manuales y, en general, deben ser revisados ( curados ) por un experto. Aunque los procesos colaborativos de la anotación en comunidad pueden ser utilizados para reducir este cuello de botella, los esfuerzos en esta línea no han tenido hasta ahora el éxito esperado. Además, el problema de la anotación, como muchos otros en el dominio de la Bioinformática, abarca información heterogénea, distribuida y en constante evolución. Una posible aproximación para superar estos problemas consiste en cambiar el foco del proceso de los expertos individuales a su comunidad, y diseñar las herramientas de manera que faciliten la gestión del conocimiento y los recursos. Este trabajo adopta esta línea y propone MASSA (Multi-Agent System to Support functional Annotation), una arquitectura de Sistema Multi-Agente (SMA) para Soportar la Anotación funcional...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artículo analiza diferentes experiencias docentes que tienen como finalidad el aprendizaje de la robótica en el mundo universitario. Estas experiencias se plasman en el desarrollo de varios cursos y asignaturas sobre robótica que se imparten en la Universidad de Alicante. Para el desarrollo de estos cursos, los autores han empleado varias plataformas educativas, algunas de implementación propia, otras de libre distribución y código abierto. El objetivo de estos cursos es enseñar el diseño e implementación de soluciones robóticas a diversos problemas que van desde el control, programación y manipulación de brazos robots de ámbito industrial hasta la construcción y/o programación de mini-robots con carácter educativo. Por un lado, se emplean herramientas didácticas de última generación como simuladores y laboratorios virtuales que flexibilizan el uso de brazos robots y, por otro lado, se hace uso de competiciones y concursos para motivar al alumno haciendo que ponga en práctica las destrezas aprendidas, mediante la construcción y programación de mini-robots de bajo coste.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La arquitectura subterránea ha dado cobijo y protegido al hombre desde muchos siglos atrás, evolucionando tipológicamente y perdurando con el paso del tiempo hasta la actualidad. La presente necesidad de incidir en propuestas bioclimáticas de bajo coste hace indispensable el estudio de esta arquitectura más primitiva puesto que, además de formar parte de la vivencia colectiva del habitar humano, es un referente en cuanto al aprovechamiento de los condicionantes naturales mediante propuestas sencillas que se benefician de la inercia térmica del terreno. El objetivo de la presente tesis doctoral es identificar, analizar y poner de manifiesto la evolución tipológica de la vivienda excavada a nivel mundial y su adaptación, en cada caso, a la geografía regional tanto como solución arquitectónica individual como sistema de agrupación urbanístico. Investigación que se concreta en el estudio pormenorizado de los asentamientos de casas-cueva existentes hoy en día en el municipio de Crevillente en Alicante (España) mostrando, en primer lugar, la benevolencia de la solución subterránea como espacio habitable mediante un análisis del origen, la condiciones históricas y las tipologías de estas viviendas excavadas; y, en segundo lugar, mostrando la problemática derivada de la influencia del terreno donde se asientan mediante un estudio sobre las condiciones de calidad ambiental de los espacios excavados en relación al gas radiactivo radón.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de este taller es mostrar a los alumnos mediante experiencias de laboratorio sencillas y de bajo coste algunas metodologías de estudio de las propiedades físicas de las rocas como material de construcción. Las propiedades físicas de las rocas determinan su uso y comportamiento tanto como materiales de construcción como soportes de obra civil. La determinación de las propiedades físicas complementan el estudio mineralógico y textural (petrográfico) de los materiales pétreos y naturales. Las propiedades petrofísicas más importantes que se abordan en este taller son el sistema poroso (porosidad); transporte de fluidos (permeabilidad, capilaridad); propiedades mecánicas (estáticas y dinámicas); la durabilidad de las rocas frente a las sales, hielo, ataque ácido, etc.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Human tremor can be defined as a somewhat rhythmic and quick movement of one or more body parts. In some people, it is a symptom of a neurological disorder. From the mathematical point of view, human tremor can be defined as a weighted contribution of different sinusoidal signals which causes oscillations of some parts of the body. This sinusoidal is repeated over time, but its amplitude and frequency change slowly. This is why amplitude and frequency are considered important factors in the tremor characterization, and thus for its diagnosis. In this paper, a tool for the prediagnosis of the human tremor is presented. This tool uses a low cost device (<$40) and allows to compute the main factors of the human tremor accurately. Real cases have been tested using the algorithms developed in this investigation. The patients suffered from different tremor severities, and the components of amplitude and frequency were computed using a series of tests. These additional measures will help the experts to make better diagnoses allowing them to focus on specific stages of the test or get an overview of these tests. From the experimental, we stated that not all tests are valid for every patient to give a diagnosis. Guided by years of experience, the expert will decide which test or set of tests are the most appropriate for a patient.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Existen recursos esenciales para la enseñanza de la Geografía cuyo uso parece muy limitado, a pesar de tratarse de instrumentos sencillos y de bajo coste. Las clases magistrales realizadas, en la mayoría de los casos sin apoyo de recursos, han dado paso a clases con las TIC. Los recursos tradicionales han pasado a tener un papel aún más secundario. En esta línea, este trabajo pretende profundizar sobre lo que sucede con algunos recursos que podemos considerar “clásicos”, como la brújula, la estación meteorológica, el globo terráqueo, las maletas didácticas, así como el atlas y los mapas. Se trata de conocer cuántos de estos recursos disponen determinados centros educativos estudiados y, sobre todo, si se utilizan por parte de los docentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hace diez años que el Proyecto Experimental de Vivienda (Previ), de Lima, a propósito de la convocatoria de investigación de la Bienal Iberoamericana de Arquitectura y Urbanismo celebrada en 2004 en esta ciudad, despertó un renovado interés en arquitectos jóvenes y comprometidos que se aproximaban a esta experiencia con la mirada atenta de quien desea aprender para construir vivienda social de irrenunciable vocación urbana. Asimismo, la asignatura pendiente de la industrialización en la vivienda de bajo coste ha propiciado el estudio de este caso. Después de plantear los aspectos básicos de Previ que nos permiten entenderlo y proyectarlo en su contexto, este artículo se acerca de nuevo a esa experiencia para leerla desde las claves proyectuales tipológicas que, a nuestro parecer, tienden un puente entre la vida que fluye (la utilitas) y el rigor que reclama la re edificatoria (la firmitas).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hoy en día la mayor parte de los sensores de energía IoT (Internet of Things) están orientados a la medida de corriente alterna (AC). No son aptos para monitorizar equipos que no estén conectados a la red eléctrica (baterías, paneles fotovoltaicos, etc.) o que formen parte de otros equipos más grandes y que estén situados detrás del transformador (ej. aceleradores de cómputo en supercomputadores). El presente trabajo tiene como objetivo principal construir un sistema, con una instalación sencilla y reducida, que permita la monitorización de consumo de dispositivos conectados a corriente continua. Toda la información recogida será mostrada a través de una interfaz web, que nos permitirá observar los cambios en el consumo en tiempo real con un intervalo de actualización especificado por el usuario. Además el sistema será robusto, con bajo coste de implementación y permitirá una alta escalabilidad, ya que el objetivo del proyecto es que sea escalable a nivel de centro de datos o institución.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo tiene como meta el desarrollo de un sistema de neurorrehabilitación mediante realidad virtual para pacientes con problemas motores en las extremidades superiores provocados por un daño cerebral. Para entender y enfrentarse de manera correcta al problema, se han revisado todos los aspectos concernientes al daño cerebral y déficits motores derivados así como las terapias empleadas para su rehabilitación, como las que utilizan tecnologías asistidas como la realidad virtual. Se han expuesto las ventajas que han llevado a utilizar esta terapia en el proyecto y se han mencionado algunos estudios de investigación previos y con resultados favorables. Por último, se ha hecho hincapié en las novedades (embodiment y neuronas espejo) que aporta este proyecto con las que se podría acelerar la rehabilitación de los pacientes incidiendo en la plasticidad cerebral. En lo que se refiere al desarrollo del entorno, se ha utilizado el motor de videojuegos Unity 3D, con el que se ha integrado el dispositivo Myo Armband, para capturar el movimiento, y las gafas de realidad virtual Oculus Rift DK2. Durante la terapia, el paciente tiene que superar una serie de niveles definidos por el terapeuta y, para ello, debe realizar un alcance y tocar un botón un número de veces por cada nivel. En cada nivel, el esfuerzo que tiene que realizar el paciente es distinto, dependiendo de la distancia a la que se encuentre el botón (relativa al calibrado previo del paciente) e igualmente, está definido por el terapeuta. También se lleva a cabo un registro de las aceleraciones y del porcentaje de acierto del paciente en un fichero, para llevar un control de su progreso. Como conclusión, cabe mencionar que el entorno desarrollado es adaptable a las posibilidades de cada paciente, permitiendo una recuperación óptima. Se trata de un sistema de bajo coste, intuitivo y que lleva a cabo un registro de datos de la actividad del paciente, lo que posibilita, como trabajo futuro, el control de forma remota por parte del terapeuta. Todos estos aspectos dejan abierta la posibilidad de que el paciente lo utilice a domicilio, con las ventajas que conlleva. Del mismo modo, el sistema se podría adaptar fácilmente para la rehabilitación de las extremidades inferiores. Tras su análisis, los investigadores expertos en la materia del Consejo Superior de Investigaciones Científicas afirman que el sistema satisface con creces su propósito. Con todo esto, se concluye que este entorno tiene un excelente presente y un futuro muy prometedor.