981 resultados para Loïc Wacquant
Resumo:
Una manera de impulsar la accesibilidad es obligar a las administraciones públicas a adquirir productos y servicios accesibles. En Europa se acaba de publicar la norma EN 301 549 de requisitos de accesibilidad para productos y servicios TIC, con el objetivo de que sea aplicada en las compras públicas de las administraciones públicas europeas. Es una norma compleja ya que tiene que ser válida para cualquier producto y servicio TIC. Por ello explicaré cómo se puede utilizar para un ejemplo: las aplicaciones móviles.
Resumo:
The new European Standard EN 301 549 “Accessibility requirements suitable for public procurement of ICT products and services in Europe” is the response by CEN, CENELEC and ETSI to the European Commission’s Mandate 376. Today, ICT products and services are converging, and the boundaries between product categories are being constantly blurred. For that reason EN 301 549 has been drafted using a feature-based approach, instead of being based on product categories. The result is a standard that can be applied to any ICT product and service, by identifying applicable requirements depending on the features of the ICT. This demonstration presents ongoing work at the research group CETTICO of the Technical University of Madrid. CETTICO is developing a workgroup-based support tool where teams of people can annotate the result of performing a conformity assessment of a given ICT product or service according to the requirements of the EN. One of the functions of the tool is creating evaluation projects. During that task the user defines the features of the corresponding ICT product or service by answering questions presented by the tool. As a result of this process, the tool will create a list of applicable requirements and recommendations.
Resumo:
This paper presents an overview of preliminary results of investigations within the WHERE2 Project on identifying promising avenues for location aided enhancements to wireless communication systems. The wide ranging contributions are organized according to the following targeted systems: cellular networks, mobile ad hoc networks (MANETs) and cognitive radio. Location based approaches are found to alleviate significant signaling overhead in various forms of modern communication paradigms that are very information hungry in terms of channel state information at the transmitter(s). And this at a reasonable cost given the ubiquitous availability of location information in recent wireless standards or smart phones. Location tracking furthermore opens the new perspective of slow fading prediction.
Resumo:
Enmarcado en un proyecto más amplio, en este TFG se ha realizado un prototipo funcional de una aplicación Android para realizar una función de magnificador digital de documentos en papel. Para llevarlo a cabo se ha realizado un estudio de los TFG anteriores incluidos en este proyecto, así como un estudio del desarrollo en Android. Posteriormente se ha diseñado la interfaz de usuario del prototipo funcional, partiendo de los resultados de la evaluación del prototipo de baja fidelidad realizado en un TFG anterior. Tras este diseño se ha Implementado el prototipo funcional, usando las librerías desarrolladas en TFG anteriores. Por último, se ha realizado una evaluación de la usabilidad y accesibilidad del prototipo funcional y se han definido una serie de recomendaciones de cambio a partir de esta evaluación de cara al desarrollo del sistema definitivo. ---ABSTRACT---As a part of a larger project, this TFG develops a functional prototype of an Android application to perform a magnifier function to paper documents. This application is aimed at people with low vision problems. To get it done, a study of the previous TFG included in this project as well as a study of Android developing has been made. After that, the user interface of the functional prototype has been designed, starting from the results of the low-fidelity prototype evaluation made in a previous TFG. In this design, several changes have been made regarding the low-fidelity prototype, applying the results of the usability evaluation. After this design, the functional prototype has been implemented using the libraries developed in the previous TFG. In this process some modifications over these libraries have been required. Finally, a usability and accessibility evaluation about the prototype with real users has been made, and there have been defined several change recommendations from this evaluation having in mind the development of the final system.
Resumo:
Este TFG se enmarca dentro de un proyecto más amplio cuyo objetivo general es utilizar un teléfono móvil de última generación (con pantalla táctil y cámara de buena calidad) como producto de apoyo para personas con baja visión, en concreto, realizando la función de magnificador digital de documentos en papel.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
Este articulo analiza cómo las relaciones sociales subyacentes entre alumnos universitarios pueden influir en los resultados académicos. Los resultados empíricos del estudio realizado revelan que la relación social entre los alumnos sobre discusión y generación de nuevas ideas tiene un impacto positivo. Así mismo, se observa que las relaciones sociales de consejo y confianza que puede haber entre los estudiantes fomentan la discusión y generación de nuevas ideas. Por tanto, se concluye que los modelos de enseñanza / aprendizaje a implementar deberían incluir actividades que fomenten este tipo de relaciones sociales con el objetivo de mejorar los resultados académicos.
Resumo:
Software needs to be accessible for persons with disabilities and there are several guidelines to assist developers in building more accessible software. Regulation activities are beginning to make the accessibility of software a mandatory requirement in some countries. One such activity is the European Mandate M 376, which will result in a European standard (EN 301 549) defining functional accessibility requirements for information and communication technology products and services. This paper provides an overview of Mandate M 376 and EN 301 549, and describes the requirements for software accessibility defined in EN 301 549, according to a feature-based approach.
Resumo:
New devices have made their way into everyday life in recent years, opening the doors to new ways of interacting with computers, providing different, and potentially better, solutions to some problems. But this raises the question of if there is any way of measuring whether or not these new devices are suitable. This paper presents a strategy for evaluating the suitability of new interaction devices in the context of teaching children with special educational needs
Resumo:
La nueva Norma EN 301 549 es el resultado del trabajo realizado por los organismos europeos de normalización CEN, CENELEC y ETSI. Su objetivo es dar respuesta al Mandato 376 de la Comisión Europea, que pretende obtener un conjunto de requisitos de accesibilidad que puedan utilizarse en las compras de productos y servicios TIC en toda Europa.
Resumo:
Language is an essential aspect of human communication and interaction, not only between humans but also between humans and interactive systems. Indeed, the use of the language is a keystone for the design of interactive systems.Inappropriate use of language might limit the access of users to information and induce users to make mistakes or to lose control of interactive systems. Despite the existence of public policies, the diversity of languages poses serious problems when considering full-fledged/seamless support for all existing languages. And yet standardization processes have successfully defined mechanisms for ensuring cross-platform compatibility between languages, at least at the level of format and the set of characters that can be used.
Resumo:
Este trabajo de investigación presenta los resultados de una revisión sistemática realizada a partir de la recopilación, lectura y análisis de distintas fuentes bibliográficas dentro de un conjunto heterogéneo consistente de 175 estudios que forman la base bibliográfica actual del documento “Cognitive Accessibility User Research” (W3C, 2015a) del W3C. Esta base bibliográfica está compuesta por publicaciones científicas basadas en libros, artículos, conferencias y sitios Web especializados, en los cuales se potencia como objeto particular de análisis, la indagación en la búsqueda de pautas de accesibilidad en las tecnologías Web que apoyen la integración a personas con discapacidad cognitiva. Como parte de este proceso de investigación se ha recopilado y descrito la situación actual, particularmente, de los retos en la utilización de las tecnologías de la información y la comunicación (TIC) en relación a personas con dificultades de aprendizaje o discapacidades cognitivas, tales como la Dislexia, Afasia, Trastorno de Aprendizaje No verbal, Envejecimiento-Demencia, Trastornos por Déficit de Atención con o sin Hiperactividad, Autismo, Síndrome de Down y Discalculia. Como aporte primordial de este Trabajo Fin de Master (TFM), se intenta trazar una línea de criterios que permitan la evaluación objetiva de este tópico, con miras a ofrecer un enfoque práctico y reciente sobre ésta temática, mostrando de forma esquematizada las pautas existentes y sirviendo de síntesis orientativa para el diseño accesible de las TIC con la finalidad de promover un soporte real a personas con los tipo de discapacidad cognitiva en los que se ha enfocado esta investigación. Logrando obtener como resultado principal de este estudio, 36 pautas generales que agrupan las coincidencias del grupo de discapacidades estudiadas y que han sido distribuidas en categorías: texto, navegación y generales, para su mejor interpretación y manejo de la Accesibilidad en las TIC´S para Personas con Discapacidad Cognitiva.---ABSTRACT---This research presents the results of a systematic review from collecting, reading and analysis of different bibliographic sources within a heterogeneous group consisting of 175 studies that form the basis of current literature document "Accessibility User Cognitive Research" (W3C , 2015th) of the W3C. This bibliographic database is composed of scientific publications based on books, articles, lectures and specialized Web sites, in which is enhanced as a particular object of analysis, the inquiry into the search for accessibility guidelines for Web technologies to support integration of people with cognitive disabilities. As part of this research process, the current situation has been collected and described, particularly the challenges in the use of information and communications technology (ICT) in relation to people with learning disabilities or cognitive disabilities, such as Dyslexia, aphasia, nonverbal learning disorder, aging-Dementia, Attention Deficit Disorders with or without hyperactivity, autism, Down syndrome and dyscalculia. As primary contribution of this Master's Thesis (TFM), it tries to draw a line of criteria to allow an objective assessment of this topic, in order to provide a practical and recent focus on this theme, showing schematically existing guidelines and serving as guidance for accessible design of ICT in order to promote a real support to people with cognitive disabilities where this research has focused on. Managing to obtain the main result of this study, 36 general guidelines that group the set of disabilities studied and have been distributed in categories: text, navigation and general, for better interpretation and management of ICTs for Accessibility people with cognitive disabilities.
Resumo:
Esta tesis se ha desarrollado en el contexto del proyecto Cajal Blue Brain, una iniciativa europea dedicada al estudio del cerebro. Uno de los objetivos de esta iniciativa es desarrollar nuevos métodos y nuevas tecnologías que simplifiquen el análisis de datos en el campo neurocientífico. El presente trabajo se ha centrado en diseñar herramientas que combinen información proveniente de distintos canales sensoriales con el fin de acelerar la interacción y análisis de imágenes neurocientíficas. En concreto se estudiará la posibilidad de combinar información visual con información háptica. Las espinas dendríticas son pequeñas protuberancias que recubren la superficie dendrítica de muchas neuronas del cerebro. A día de hoy, se cree que tienen un papel clave en la transmisión de señales neuronales. Motivo por el cual, el interés por parte de la comunidad científica por estas estructuras ha ido en aumento a medida que las técnicas de adquisición de imágenes mejoraban hasta alcanzar una calidad suficiente para analizar dichas estructuras. A menudo, los neurocientíficos utilizan técnicas de microscopía con luz para obtener los datos que les permitan analizar estructuras neuronales tales como neuronas, dendritas y espinas dendríticas. A pesar de que estas técnicas ofrezcan ciertas ventajas frente a su equivalente electrónico, las técnicas basadas en luz permiten una menor resolución. En particular, estructuras pequeñas como las espinas dendríticas pueden capturarse de forma incorrecta en las imágenes obtenidas, impidiendo su análisis. En este trabajo, se presenta una nueva técnica, que permite editar imágenes volumétricas, mediante un dispositivo háptico, con el fin de reconstruir de los cuellos de las espinas dendríticas. Con este objetivo, en un primer momento se desarrolló un algoritmo que proporciona retroalimentación háptica en datos volumétricos, completando la información que provine del canal visual. Dicho algoritmo de renderizado háptico permite a los usuarios tocar y percibir una isosuperficie en el volumen de datos. El algoritmo asegura un renderizado robusto y eficiente. Se utiliza un método basado en las técnicas de “marching tetrahedra” para la extracción local de una isosuperficie continua, lineal y definida por intervalos. La robustez deriva tanto de una etapa de detección de colisiones continua de la isosuperficie extraída, como del uso de técnicas eficientes de renderizado basadas en un proxy puntual. El método de “marching tetrahedra” propuesto garantiza que la topología de la isosuperficie extraída coincida con la topología de una isosuperficie equivalente determinada utilizando una interpolación trilineal. Además, con el objetivo de mejorar la coherencia entre la información háptica y la información visual, el algoritmo de renderizado háptico calcula un segundo proxy en la isosuperficie pintada en la pantalla. En este trabajo se demuestra experimentalmente las mejoras en, primero, la etapa de extracción de isosuperficie, segundo, la robustez a la hora de mantener el proxy en la isosuperficie deseada y finalmente la eficiencia del algoritmo. En segundo lugar, a partir del algoritmo de renderizado háptico propuesto, se desarrolló un procedimiento, en cuatro etapas, para la reconstrucción de espinas dendríticas. Este procedimiento, se puede integrar en los cauces de segmentación automática y semiautomática existentes como una etapa de pre-proceso previa. El procedimiento está diseñando para que tanto la navegación como el proceso de edición en sí mismo estén controlados utilizando un dispositivo háptico. Se han diseñado dos experimentos para evaluar esta técnica. El primero evalúa la aportación de la retroalimentación háptica y el segundo se centra en evaluar la idoneidad del uso de un háptico como dispositivo de entrada. En ambos casos, los resultados demuestran que nuestro procedimiento mejora la precisión de la reconstrucción. En este trabajo se describen también dos casos de uso de nuestro procedimiento en el ámbito de la neurociencia: el primero aplicado a neuronas situadas en la corteza cerebral humana y el segundo aplicado a espinas dendríticas situadas a lo largo de neuronas piramidales de la corteza del cerebro de una rata. Por último, presentamos el programa, Neuro Haptic Editor, desarrollado a lo largo de esta tesis junto con los diferentes algoritmos ya mencionados. ABSTRACT This thesis took place within the Cajal Blue Brain project, a European initiative dedicated to the study of the brain. One of the main goals of this project is the development of new methods and technologies simplifying data analysis in neuroscience. This thesis focused on the development of tools combining information originating from distinct sensory channels with the aim of accelerating both the interaction with neuroscience images and their analysis. In concrete terms, the objective is to study the possibility of combining visual information with haptic information. Dendritic spines are thin protrusions that cover the dendritic surface of numerous neurons in the brain and whose function seems to play a key role in neural circuits. The interest of the neuroscience community toward those structures kept increasing as and when acquisition methods improved, eventually to the point that the produced datasets enabled their analysis. Quite often, neuroscientists use light microscopy techniques to produce the dataset that will allow them to analyse neuronal structures such as neurons, dendrites and dendritic spines. While offering some advantages compared to their electronic counterpart, light microscopy techniques achieve lower resolutions. Particularly, small structures such as dendritic spines might suffer from a very low level of fluorescence in the final dataset, preventing further analysis. This thesis introduces a new technique enabling the edition of volumetric datasets in order to recreate dendritic spine necks using a haptic device. In order to fulfil this objective, we first presented an algorithm to provide haptic feedback directly from volumetric datasets, as an aid to regular visualization. The haptic rendering algorithm lets users perceive isosurfaces in volumetric datasets, and it relies on several design features that ensure a robust and efficient rendering. A marching tetrahedra approach enables the dynamic extraction of a piecewise linear continuous isosurface. Robustness is derived using a Continuous Collision Detection step coupled with acknowledged proxy-based rendering methods over the extracted isosurface. The introduced marching tetrahedra approach guarantees that the extracted isosurface will match the topology of an equivalent isosurface computed using trilinear interpolation. The proposed haptic rendering algorithm improves the coherence between haptic and visual cues computing a second proxy on the isosurface displayed on screen. Three experiments demonstrate the improvements on the isosurface extraction stage as well as the robustness and the efficiency of the complete algorithm. We then introduce our four-steps procedure for the complete reconstruction of dendritic spines. Based on our haptic rendering algorithm, this procedure is intended to work as an image processing stage before the automatic segmentation step giving the final representation of the dendritic spines. The procedure is designed to allow both the navigation and the volume image editing to be carried out using a haptic device. We evaluated our procedure through two experiments. The first experiment concerns the benefits of the force feedback and the second checks the suitability of the use of a haptic device as input. In both cases, the results shows that the procedure improves the editing accuracy. We also report two concrete cases where our procedure was employed in the neuroscience field, the first one concerning dendritic spines in the human cortex, the second one referring to an ongoing experiment studying dendritic spines along dendrites of mouse cortical pyramidal neurons. Finally, we present the software program, Neuro Haptic Editor, that was built along the development of the different algorithms implemented during this thesis, and used by neuroscientists to use our procedure.
Resumo:
Dendritic spines are thin protrusions that cover the dendritic surface of numerous neurons in the brain and whose function seems to play a key role in neural circuits. The correct segmentation of those structures is difficult due to their small size and the resulting spines can appear incomplete. This paper presents a four-step procedure for the complete reconstruction of dendritic spines. The haptically driven procedure is intended to work as an image processing stage before the automatic segmentation step giving the final representation of the dendritic spines. The procedure is designed to allow both the navigation and the volume image editing to be carried out using a haptic device. A use case employing our procedure together with a commercial software package for the segmentation stage is illustrated. Finally, the haptic editing is evaluated in two experiments; the first experiment concerns the benefits of the force feedback and the second checks the suitability of the use of a haptic device as input. In both cases, the results shows that the procedure improves the editing accuracy.
Resumo:
El planteamiento inicial de este proyecto surge debido a que hay personas con discapacidad cognitiva que se desorientan con mucha facilidad en espacios interiores. Para guiar a esas personas no se pueden usar los sistemas basados en GPS que se utilizan hoy en día en vehículos, ya que estos sistemas no funcionan en lugares cerrados porque no reciben la señal de los satélites. Por consiguiente se ha propuesto una solución basada en otra tecnología para que estas personas, a través de su dispositivo móvil, puedan guiarse en un sitio cerrado. Este Trabajo de Fin de Grado parte inicialmente de un Practicum realizado en el semestre anterior, donde se investigó sobre posibles soluciones de balizas digitales (iBeacons) y se estudió la tecnología iBeacon para conocer la posición del móvil en un espacio cerrado. El principal problema que se encontró fue la falta de precisión a la hora de estimar la distancia (en metros) que hay entre baliza y dispositivo móvil. El objetivo para este trabajo de fin de grado ha sido primeramente resolver el problema comentado anteriormente y una vez resuelto, implementar un prototipo móvil para el sistema operativo Android de un sistema de orientación en espacios interiores para personas con discapacidad cognitiva. Este prototipo ha sido implementado ayudándose de balizas digitales (iBeacons) y utilizando el método de trilateración para conocer la posición del usuario en un sitio cerrado. Además se han aprovechado los sensores (acelerómetro y sensor magnético terrestre) del dispositivo móvil como refuerzo de posicionamiento y para seguir de forma más precisa el movimiento del usuario. En el prototipo actual no se han dedicado recursos a diseñar una interacción fácil para personas con discapacidad cognitiva, debido a que su principal objetivo ha sido evaluar el funcionamiento de las balizas y las posibilidades del sistema de orientación. El resultado final de este TFG es incorporar una serie de luces asociadas a cada una de las balizas que ayuden al usuario a orientarse con mayor facilidad.---ABSTRACT---The initial approach of this project arises because there are people with cognitive disabilities who become disoriented in closed sites. To guide these people it cannot be used GPS, because this system does not work in closed sites because it does not receive the satellite signals. Therefore, it has proposed a solution based on another technology so that these people, through their smartphone, can be guided in a closed site. This final degree project comes from a Practicum made in the previous semester, where possible solutions about iBeacons were investigated and the iBeacon technology was studied too. All this, to know the mobile position in a closed site. The main problem encountered was the lack of precision to calculate the distance between a mobile phone and a beacon. The first objective has been to solve distance problem mentioned above, once resolved it has implemented a prototype, which consists in a guidance system in closed sites for a people with cognitive disabilities. This prototype has been implemented with beacons and trilateration to know user position in a closed site. In addition, mobile phone sensors have been used to follow user movement. In the current prototype, the main objective has been evaluate iBeacons performance and the guidance system. The result of this TFG is to incorporate a series of lights associated with each of the beacons to make easier the orientation.