64 resultados para Conjunto móvil
em Universidad Politécnica de Madrid
Resumo:
El objetivo de este proyecto ha sido el de realizar un análisis del importante desarrollo que han sufrido las telecomunicaciones, haciendo un especial hincapié en la telefonía móvil y el impacto y repercusión que ha causado actualmente en nuestra sociedad. Para ello se hará un repaso evolutivo de las tecnologías de la información y las telecomunicaciones, y se establecerá una relación entre la gran difusión de éstas y su efecto sobre los usos, y cambios percibidos por los consumidores del nuevo siglo. Ciertamente la historia de la tecnología, nos enseña que la gente y las organizaciones acaban utilizándola para unos propósitos muy diferentes de aquellos que inicialmente fueron concebidas. Además cuanto más interactiva sea una tecnología, tanto más probable será que los usuarios se conviertan en productores o modificadores de la misma. Por tanto, la sociedad necesita resolver las incógnitas que pueda suscitar el rápido y continúo cambio de las comunicaciones. Este proyecto trata de ayudar a responder alguna de las cuestiones que actualmente se están planteando. ¿Son los teléfonos móviles una expresión de identidad, artilugios de moda, herramientas de la vida cotidiana, o todo lo anterior? ¿Existen nuevos modelos de comportamiento y conducta social? ¿La comunicación móvil está favoreciendo la aparición de una nueva cultura joven con un lenguaje propio basado en la comunicación textual y multimodal? ¿Tienen los teléfonos móviles efectos nocivos en la salud? La respuesta a estas preguntas afecta a nuestras vidas y también condiciona las políticas públicas y las estrategias de negocio, por eso requiere adquirir un conocimiento cimentado en la información, y la recopilación de datos de diversas fuentes, tanto de estadísticas provenientes de diferentes estudios e investigaciones, como de empresas consultoras, siempre basada en una perspectiva global. En conjunto, se espera dentro de los límites del conocimiento actual, contribuir a establecer las bases para el análisis y valoración de la relación existente entre comunicación, tecnología y sociedad en todo el mundo. Abstract The purpose of this project has been to analyse the significant development undergone by telecommunications, putting a special emphasis on mobile phones and the impact it has caused in society. We will go over the evolution of IT technologies and telecommunications as well as establish a relationship between its spread and effect of its uses and changes understood by the new century consumers. Technology history shows us that people and organizations use it for very different purposes from those originally thought. Furthermore, the more interactive technologies are, the more users will modify or produce it. Therefore, society needs to solve the mysteries of the quick and continuous change of communications. This project tries to help and answer some of the questions considered these days. Are mobile phones an expression of identity, fashionable devices, tools for everyday life or all at once? Are there any new models of performance and social behaviour? Is mobile communication favouring the existence of a new young culture with a typical language based on textual and multimodal communication? Are mobile phones bad for our health? The answer to these questions affects us all and conditions public politics and business strategies so it is required to get firm knowledge based on information. It is also important to compile data from various sources, from statistics of research and studies, based on a global perspective. As a whole, we hope to contribute to establish the bases for the future analysis and assessment of a fundamental trend that is redefining the relationship between communication, technology and society worldwide by transforming the wireless networks that make our lives.
Resumo:
Usualmente las personas solemos buscar información ya sea escrita o digital acerca de las distintas enfermedades de las cuales padecemos o estamos expuestos medicamentos, así también de los distintos fármacos que nos son recetados por los médicos especialistas y de los laboratorios productores de los mismos. Existen muchos foros en internet especializados en salud y medicina en la cual podemos localizar información útil acerca de nuestros intereses en estos temas, así también podemos encontrar información muy valiosa en las principales redes sociales, pero no sería mejor poder tener toda esta información concentrada en una sola fuente en la cual poder realizar todas nuestras búsquedas acerca de los principales conceptos y definiciones, estadísticas, principales competidores de los fármacos que buscamos y de sus fabricantes al igual que especializadas graficas estadísticas que nos digan cuales son las cosas más importantes que se comentan de ellos y saber quiénes son los principales líderes de opinión en estos temas particulares. Kantar Heatlh España proveerá de un muy poderoso sitio web el cual nos permitirá consultar acerca de nuestras principales inquietudes acerca de estos temas como son: Fármacos, Patologías, Laboratorios, y Líderes de Opinión. Esta herramienta tiene un gran motor de recopilación de información basado en Social Media Listening (SML) la cual mantendrá el sitio siempre actualizado con los últimos comentarios, noticias y eventos que acontezcan en el entorno médico y farmacéutico. El presente proyecto tiene la finalidad de proponer una plataforma móvil basada en los principales servicios provistos por Social Pharma, que desde su origen tendrá un modelo de negocio claro. Este documento abarca el plan de negocio de la aplicación móvil, Social Pharma Aplicación Móvil, basada en sitios de recopilación de información médica, por medio de la cual poder prestar un servicio a los usuarios y a las distintas compañías productoras de fármacos información para que ambos conozcan los intereses y las oportunidades existentes. Además contiene la especificación de requisitos y de los casos de usos, que en conjunto conforman las bases para el diseño de un prototipo de alta fidelidad. Dicho prototipo no solo permite la revisión y validación de los requisitos funcionales sino que también sirve como base para el futuro desarrollo de la aplicación.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
El objetivo de esta tesis es el desarrollo de un sistema completo de navegación, aprendizaje y planificación para un robot móvil. Dentro de los innumerables problemas que este gran objetivo plantea, hemos dedicado especial atención al problema del conocimiento autónomo del mundo. Nuestra mayor preocupación ha sido la de establecer mecanismos que permitan, a partir de información sensorial cruda, el desarrollo incremental de un modelo topológico del entorno en el que se mueve el robot. Estos mecanismos se apoyan invariablemente en un nuevo concepto propuesto en esta tesis: el gradiente sensorial. El gradiente sensorial es un dispositivo matemático que funciona como un detector de sucesos interesantes para el sistema. Una vez detectado uno de estos sucesos, el robot puede identificar su situación en un mapa topológico y actuar en consecuencia. Hemos denominado a estas situaciones especiales lugares sensorialmente relevantes, ya que (a) captan la atención del sistema y (b) pueden ser identificadas utilizando la información sensorial. Para explotar convenientemente los modelos construidos, hemos desarrollado un algoritmo capaz de elaborar planes internalizados, estableciendo una red de sugerencias en los lugares sensorialmente relevantes, de modo que el robot encuentra en estos puntos una dirección recomendada de navegación. Finalmente, hemos implementado un sistema de navegación robusto con habilidades para interpretar y adecuar los planes internalizados a las circunstancias concretas del momento. Nuestro sistema de navegación está basado en la teoría de campos de potencial artificial, a la que hemos incorporado la posibilidad de añadir cargas ficticias como ayuda a la evitación de mínimos locales. Como aportación adicional de esta tesis al campo genérico de la ciencia cognitiva, todos estos elementos se integran en una arquitectura centrada en la memoria, lo que pretende resaltar la importancia de ésta en los procesos cognitivos de los seres vivos y aporta un giro conceptual al punto de vista tradicional, centrado en los procesos. The general objective of this thesis is the development of a global navigation system endowed with planning and learning features for a mobile robot. Within this general objective we have devoted a special effort to the autonomous learning problem. Our main concern has been to establish the necessary mechanisms for the incremental development of a topological model of the robot’s environment using the sensory information. These mechanisms are based on a new concept proposed in the thesis: the sensory gradient. The sensory gradient is a mathematical device which works like a detector of “interesting” environment’s events. Once a particular event has been detected the robot can identify its situation in the topological map and to react accordingly. We have called these special situations relevant sensory places because (a) they capture the system’s attention and (b) they can be identified using the sensory information. To conveniently exploit the built-in models we have developed an algorithm able to make internalized plans, establishing a suggestion network in the sensory relevant places in such way that the robot can find at those places a recommended navigation direction. It has been also developed a robust navigation system able to navigate by means of interpreting and adapting the internalized plans to the concrete circumstances at each instant, i.e. a reactive navigation system. This reactive system is based on the artificial potential field approach with the additional feature introduced in the thesis of what we call fictitious charges as an aid to avoid local minima. As a general contribution of the thesis to the cognitive science field all the above described elements are integrated in a memory-based architecture, emphasizing the important role played by the memory in the cognitive processes of living beings and giving a conceptual turn in the usual process-based approach.
Resumo:
Para introducir y contextualizar los diferentes artículos de este Dossier hace falta recordar los elementos relevantes que justifican su necesidad y urgencia: la revolución en el diseño y comercialización de dispositivos móviles provocada por la aparición del iPhone; la explotación de la información vertida en la Red por un usuario consumidor-productor; la evolución de un sector que, bajo la etiqueta de Mobile 2.0, está provocando cambios radicales en todos los ámbitos, en la gestión de nuestra propia identidad, en nuestro aprendizaje, nuestras relaciones, nuestro quehacer profesional
Resumo:
La evolución actual de los terminales móviles ha propiciado el surgimiento de un nuevo campo de investigación relacionado con las aplicaciones móviles colaborativas basadas en Realidad Aumentada. Debido a su inmadurez, es necesaria una conceptualización de términos que aclaren un entorno hasta el momento complejo y poco estructurado. Este artículo propone una nueva taxonomía llamada “Pirámide de Generación de Contenido Colaborativo” que clasifica este tipo de aplicaciones en tres niveles: aisladas, sociales y en tiempo real. Dicha clasificación describe las diferentes arquitecturas que se deben tener en cuenta para conseguir sistemas de cada uno de estos niveles, teniendo en cuenta la forma en que el contenido aumentado es generado y cómo se lleva a cabo la colaboración. Por tanto, el principal objetivo es clarificar terminología relativa a este nuevo paradigma, a la vez que se propone un marco para identificar y clasificar futuras investigaciones relativas a este entorno.
Resumo:
The aim of this paper is to evaluate the performance of mobile WiMAX technology for users in a highly mobility scenario for an operating frequency of 3.5 GHz. By utilizing a modified version of the extended Erceg’s propagation model, based on the introduction of Rayleigh fading due to multipath, we have calculated the received desired power and the interference power to obtain the statistical signal-to-interference-plusnoise rate (as a function of mean value and variance of cochannel interference) and the user throughput. A rural scenario composed of a transmitting base station and users in moving vehicles along a cell sector is proposed. The obtained results about coverage and throughput have been simulated by a tool built in MATLAB
Resumo:
En los últimos años la movilidad se ha convertido en uno de los puntos de mayor desarrollo dentro de las tecnologías de la información. Uno de los campos en los que las nuevas herramientas de movilidad han encontrado mayor aceptación, es el ámbito de la asistencia sanitaria. Este rápido desarrollo se puede aprovechar para facilitar el cuidado de enfermedades crónicas complejas como el VIH/SIDA que requieren un gran control de la enfermedad y su tratamiento. Dentro del proyecto Hospital VIHrtual se ha creado un portal web con servicios adecuados a los pacientes de VIH y que permite al paciente el acceso en cualquier momento y lugar utilizando su teléfono móvil. Todo ello con el fin de favorecer el cumplimiento del paciente y permitir mejorar su calidad de vida.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
El cumplimiento de los objetivos agrotécnicos de los cultivos de raíces y tubérculos exige que la labor de surcado configure un caballón que permita el trabajo de los posteriores aperos que participan en las demás labores de cultivo. En la agricultura cubana se emplean diversos tipos de surcadores que difieren en las características de los elementos aporcadores. Este hecho afecta a la capacidad de trabajo del conjunto tractor-apero y por extensión en el consumo de combustible y el rendimiento del cultivo. El objetivo de este trabajo ha sido fundamentar el empleo del apero más adecuado para la labor de surcado en cultivos de raíces y tubérculos (patata, boniato, yuca) en Fluvisoles, teniendo en cuenta el comportamiento de las dimensiones y forma del caballón, cualidades tecnológicas explotativas del conjunto tractor-apero, consumo energético del proceso productivo y el rendimiento agrícola. Los tratamientos considerados estuvieron determinados por la utilización del surcador fertilizador IIMA-BALDAN 4.500 (T1), y los surcadores aporcadores SA-5 (T2) y SA-3 (T3). En los tres tratamientos se alcanzó un perfil de la sección transversal del caballón de configuración cóncavo-convexo. El surcador BALDAN logró el mejor comportamiento de los indicadores tecnológico-explotativos lo que se tradujo en la mayor capacidad de trabajo de 1,36 ha h-1 y el menor consumo de combustible de 5,38 L ha-1. Este mismo tratamiento proporcionó el mayor rendimiento medio de los cultivos superando en un 43,2% al del surcador SA-5 y en un 57,9% al del surcador SA-3. Desde el punto de vista energético T1, obtuvo una mejor eficiencia energética superior en un 43,5% a la del tratamiento T2, y en un 57,1% a la del tratamiento T3. ABSTRACT The achievement of agrotechnical objectives in the cultivation of roots and tubers demands the plow through activity creates a ridge to allow the work of subsequent farming tools participating in other cultivation works. In Cuban Agriculture various kinds of furrowers are used which differ in the characteristics of their earth up elements. This fact affects work capacity of the tractor-farming tool combination and by extension to fuel consumption and cultivation yield. The aim of this work has been to support the use of the most accurate farming tool in the plow through activity for the cultivation of roots and tubers (potato, sweet potato, cassava) in Fluvisoils, taking into account the behaviour of the ridge´s dimensions and shape, technologic-explotative qualities of the tractor-farming tool combination, energy consumption of the productive process and agricultural yield. The treatments considered were determined by the use of fertlizing furrower IIMA-BALDAN 4.500 (T1), and the earth up furrowers SA-5 (T2) and SA-3 (T3). During the three treatments a transverse section profile of the ridge under concave-convex configuration was obtained. The furrower BALDAN achieved the best behaviour of the technologic-explotative indicators, which was translated into the largest work capacity of 1,36 ha h-1 and the smallest fuel consumption of 5,38 L ha-1. This treatment also provided the biggest average yield of the cultivation, overcoming in a 43,2% the furrower SA-5 and furrower SA-3 in a 57,9%. From the energetic point of view T1 gained better energetic efficiency than treatment T2 in a 43,5% and treatment T3 in a 57,1%.
Resumo:
La mayor parte de los entornos diseñados por el hombre presentan características geométricas específicas. En ellos es frecuente encontrar formas poligonales, rectangulares, circulares . . . con una serie de relaciones típicas entre distintos elementos del entorno. Introducir este tipo de conocimiento en el proceso de construcción de mapas de un robot móvil puede mejorar notablemente la calidad y la precisión de los mapas resultantes. También puede hacerlos más útiles de cara a un razonamiento de más alto nivel. Cuando la construcción de mapas se formula en un marco probabilístico Bayesiano, una especificación completa del problema requiere considerar cierta información a priori sobre el tipo de entorno. El conocimiento previo puede aplicarse de varias maneras, en esta tesis se presentan dos marcos diferentes: uno basado en el uso de primitivas geométricas y otro que emplea un método de representación cercano al espacio de las medidas brutas. Un enfoque basado en características geométricas supone implícitamente imponer un cierto modelo a priori para el entorno. En este sentido, el desarrollo de una solución al problema SLAM mediante la optimización de un grafo de características geométricas constituye un primer paso hacia nuevos métodos de construcción de mapas en entornos estructurados. En el primero de los dos marcos propuestos, el sistema deduce la información a priori a aplicar en cada caso en base a una extensa colección de posibles modelos geométricos genéricos, siguiendo un método de Maximización de la Esperanza para hallar la estructura y el mapa más probables. La representación de la estructura del entorno se basa en un enfoque jerárquico, con diferentes niveles de abstracción para los distintos elementos geométricos que puedan describirlo. Se llevaron a cabo diversos experimentos para mostrar la versatilidad y el buen funcionamiento del método propuesto. En el segundo marco, el usuario puede definir diferentes modelos de estructura para el entorno mediante grupos de restricciones y energías locales entre puntos vecinos de un conjunto de datos del mismo. El grupo de restricciones que se aplica a cada grupo de puntos depende de la topología, que es inferida por el propio sistema. De este modo, se pueden incorporar nuevos modelos genéricos de estructura para el entorno con gran flexibilidad y facilidad. Se realizaron distintos experimentos para demostrar la flexibilidad y los buenos resultados del enfoque propuesto. Abstract Most human designed environments present specific geometrical characteristics. In them, it is easy to find polygonal, rectangular and circular shapes, with a series of typical relations between different elements of the environment. Introducing this kind of knowledge in the mapping process of mobile robots can notably improve the quality and accuracy of the resulting maps. It can also make them more suitable for higher level reasoning applications. When mapping is formulated in a Bayesian probabilistic framework, a complete specification of the problem requires considering a prior for the environment. The prior over the structure of the environment can be applied in several ways; this dissertation presents two different frameworks, one using a feature based approach and another one employing a dense representation close to the measurements space. A feature based approach implicitly imposes a prior for the environment. In this sense, feature based graph SLAM was a first step towards a new mapping solution for structured scenarios. In the first framework, the prior is inferred by the system from a wide collection of feature based priors, following an Expectation-Maximization approach to obtain the most probable structure and the most probable map. The representation of the structure of the environment is based on a hierarchical model with different levels of abstraction for the geometrical elements describing it. Various experiments were conducted to show the versatility and the good performance of the proposed method. In the second framework, different priors can be defined by the user as sets of local constraints and energies for consecutive points in a range scan from a given environment. The set of constraints applied to each group of points depends on the topology, which is inferred by the system. This way, flexible and generic priors can be incorporated very easily. Several tests were carried out to demonstrate the flexibility and the good results of the proposed approach.
Resumo:
Las propiedades N-autocontradicción y autocontradicción, han sido suficientemente estudiadas en los conjuntos borrosos ordinarios y en los conjuntos borrosos intuicionistas de Atanassov. En el presente artículo se inicia el estudio de las mencionadas propiedades, dentro del marco de los conjuntos borrosos de tipo 2 cuyos grados de pertenencia son funciones normales y convexas (L). En este sentido, aquí se extienden los conceptos de N-autocontradicción y autocontradicción al conjunto L, y se establecen algunos criterios para verificar tales propiedades.
Resumo:
Este trabajo fin de máster se integra con el sistema Localiza, un sistema previamente desarrollado para la localización bajo demanda de personas que requieran un cierto grado de supervisión. El proyecto amplia las funciones del sistema Localiza, añadiendo una nueva funcionalidad que permita a un usuario con movilidad reducida controlar su dispositivo móvil a través de su ordenador personal. Este proyecto se integra con el proyecto Localiza bajo el título: “Desarrollo de una herramienta software para el manejo de un teléfono móvil adaptada a personas con discapacidad física severa”. El proyecto citado se centra en el desarrollo de una aplicación móvil, que se comunicara con el ordenador personal del usuario. El desarrollo del sistema residente en el ordenador personal, es el ámbito central que ocupa a este trabajo fin de Master. El usuario final al que está destinada la aplicación desarrollada en este proyecto, es un usuario con grado de discapacidad motórica, de forma que con ligeros movimientos de cabeza sea capaz de controlar remotamente el terminal móvil a través de un ordenador personal. El objetivo principal del proyecto es el control remoto de un terminal móvil desde un ordenador personal. La comunicación entre el terminal móvil y el ordenador personal se ha realizado bajo el protocolo Bluetooth. Para desarrollar la aplicación residente en el ordenador personal, se ha utilizado la plataforma Java. SUMMARY. This Master Tesis develops an application, which is intended to provide an added value to the already existing project Localiza, on-demand position system for people with severe disabilities. This project extends the functions of the Localiza system, adding a new feature that allows a user with limited mobility to control their mobile device. This project is integrated with the project under the title: “Desarrollo de una herramienta software para el manejo de un teléfono móvil adaptada a personas con discapacidad física severa”. The above project it is focused on the development of mobile application and the development of the application that resides in the personal computer is the main work of this project. Both projects are closely related and together they complement. The end-user of the application that is developed in this project is a person with motor disabilities. This person may control the computer mouse with slight head movements. The aim of this project is to facilitate the access to the personal computer and to the mobile telephony environment for disabled people. The Communication between the mobile and personal computer has been conducted under the Bluetooth protocol. To develop the application resident on the personal computer have been used the Java platform.
Resumo:
El presente proyecto desarrolla una aplicación residente en un terminal móvil, que pretende proporcionar un valor añadido al actual proyecto Localiza, sistema de localización bajo demanda para personas con discapacidad severa. Mediante el desarrollo de este proyecto se pretende facilitar el acceso al teléfono móvil y al ordenador a las personas con discapacidad motriz. El objetivo final es ser capaz de controlar un teléfono móvil por medio de control remoto, mediante el uso de un ordenador personal. Para ello se establece una conexión remota entre el terminal móvil y el ordenador personal, a través del protocolo de comunicación Bluetooth. De este modo, a través de la aplicación móvil se transmite la información de posición de las coordenadas, proporcionada por el acelerómetro del terminal, a un servicio instalado en el ordenador que se encarga de gestionar la información recibida, y así crear las interrupciones pertinentes en el sistema operativo para mover el puntero del ratón. Para controlar el teléfono móvil de forma remota se dispondrá de un emulador de telefonía móvil instalado en el ordenador que implemente las funciones básicas de control de llamadas. Por medio de comunicación Bluetooth, las acciones que realice el usuario en emulador serán invocadas en el propio terminal móvil. SUMMARY. The project presented develops a mobile application, which is intended to provide an added value to the already existing project Localiza, on-demand position system for people with severe disabilities. This project aims to facilitate the access to the personal computer and to the mobile telephony environment for disabled people. The main goal is to be able to control a mobile phone by remote control, using a personal computer. Thus, a remote connexion will to be established between the mobile device and the personal computer, through Bluetooth communication protocol. Thus, the mobile application will transmit the coordinate’s position, provided by the accelerometer of the mobile device, to a Bluetooth service running in the personal computer. That service will be in charge of managing the information received in order to create the interruptions on the operational system for moving the mouse pointer. The remote controlling of the mobile device is carried out using a mobile telephony emulator installed in the personal computer, which will implement the basic functionality of calling control. Using Bluetooth communication, the user actions done in the emulator interface will be invoked on the mobile device itself.
Resumo:
Este documento trata de la instalación del sistema de provisión de abonados “Provisioning Gateway” (PG) para el proyecto Machine to Machine (M2M) de Ericsson, una tecnología que permite definir los abonados o dispositivos serán usados en las comunicaciones máquina a máquina. El proyecto ha sido realizado en Ericsson para una compañía de telefonía de España. Se hablará de la evolución que han sufrido las redes de comunicaciones en los últimos años y las aplicaciones que surgen a partir de ellas. Se hará especial hincapié en la tecnología de red más utilizada hoy en día, el 3G, y en su sucesora, el 4G, detallando las novedades que incorpora. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cual la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Por último se darán algunas conclusiones sobre el trabajo realizado y los conocimientos adquiridos. ABSTRACT This document describes the installation of Provisioning Gateway system (PG) for Machine to Machine (M2M) project in Ericsson, which is a technology that allows companies to define the subscribers that will be used of machine to Machine communications. This project has been developed in Ericsson for a Spanish telecommunication company. The evolution of telecommunication networks is going to be introduced, describing al the services developed in parallel. 3G technology will be describer in a deeper way because it is the most used technology nowadays and 4G because it represents the future in telecommunications. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cuál la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Furthermore, this document shows the installation process of PG system made by the Ericsson´s engineer. Telecommunication companies use PG for creating, defining and deleting subscribers from the database. The different steps of the installation procedure will be described among this document, talking about hardware and software installation and the final acceptant test. Finally, some conclusions about the work done and experience learned will be exposed.