923 resultados para INTELIGENCIA ARTIFICIAL
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
El desarrollo histórico de la Psicología como disciplina científica puede ser interpretado, siguiendo a Manuel de Vega (1998), a la luz de los aportes epistemológicos de T. Kuhn. Este físico y filósofo sostiene que la historia de las disciplinas científicas está compuesta por diversos períodos, a saber, el período de ciencia pre-paradigmática, de ciencia normal, crisis y nueva ciencia normal. Kuhn presupone la existencia de un paradigma, el cual durante el período de ciencia normal dominará y determinará, entre otras cosas, cuáles son los problemas, las técnicas y soluciones que serán consideradas como válidas dentro de ese período. Diversos autores han sostenido que el conductismo fue el paradigma dominante en psicología durante la primera mitad del siglo XX pero, tras su crisis, hoy en día el nuevo paradigma dominante es el cognitivo. Este nuevo paradigma se basa en la analogía de la mente como un ordenador y presenta dos versiones. Si se interpreta la analogía en un sentido débil, la similitud funcional entre la mente y el ordenador no pierde de vista la peculiaridad del funcionamiento de la mente humana; en este sentido, debido a que la perspectiva psicológica continíoa presente en las investigaciones y que las mismas son consideradas como un instrumento para el estudio de la mente, la versión débil ha dado lugar a los desarrollos de la Psicología Cognitiva. En cambio, quienes han interpretado la analogía en un sentido fuerte dieron lugar a los desarrollos de la Ciencia Cognitiva (i). Su tarea primordial consiste en la construcción de Sistemas de Inteligencia Artificial que, en tanto simulan los comportamientos inteligentes humanos, tienen estados cognitivos. Dado que la ciencia cognitiva ha sido desarrollada en su mayoría por programadores, este tipo de investigación parte del supuesto que no es necesario saber cómo funciona el cerebro para aportar información relevante sobre el funcionamiento del sistema cognitivo humano (Searle, 1981, pág. 467). Uno de los problemas clásicos que se ha planteado dentro del paradigma cognitivo se centra en la pregunta de si es posible que las máquinas piensen. Varios científicos y filósofos han dado diversas respuestas pero lo cierto es que, a pesar de esta diversidad, a todos les resulta prácticamente inevitable hacer algíon tipo de referencia a la propuesta de Turing. Este pensador ha formulado un test para las máquinas que, de superarlo, sería preciso atribuirles la capacidad de pensar. En este trabajo, en primera instancia, caracterizo cuál es la propuesta de Turing que ha tomado el programa de Inteligencia Artificial (IA), en sentido fuerte, para determinar si las máquinas pueden pensar. Luego desarrollo dos objeciones clásicas que consisten en formular cuáles son las imposibilidades de las máquinas y el problema del marco, y propongo la existencia de un núcleo común entre ambas. En segunda instancia, con el objetivo de complejizar estas objeciones, tomo en consideración aportes provenientes de las teorías de las emociones contemporáneas, en particular considero aportes de las neurociencias cognitivas, y defiendo la tesis que afirma que las emociones son importantes para el desarrollo de la inteligencia humana. Si mi argumentación en esta segunda parte es correcta, entonces habré mostrado que la falencia del test de Turing consiste en suponer un concepto vetusto de inteligencia humana
Resumo:
El control inteligente de vehículos autónomos es uno de los retos actuales más importantes de los Sistemas Inteligentes de Transporte. La aplicación de técnicas de inteligencia artificial para la gestión automática de los actuadores del vehículo permite a los diferentes sistemas avanzados de asistencia al conductor (ADAS) y a los sistemas de conducción autónoma, realizar una gestión de nivel bajo de una manera muy similar a la de los conductores humanos, mejorando la seguridad y el confort. En este artículo se presenta un esquema de control para gestionar estos actuadores de bajo nivel del vehículo (dirección, acelerador y freno). Este sistema automático de control de bajo nivel se ha definido, implementado y probado en un vehículo Citroën C3 Pluriel, cuyos actuadores han sido automatizados y pueden recibir señales de control desde un ordenador de a bordo.
Resumo:
Este trabajo describe un sistema desarrollado para evaluar la utilidad de las técnicas de aprendizaje basadas en explicaciones aplicadas a la comprensión de textos. Como punto de partida se toma la salida de un sistema de análisis que produce expresiones en lógica de predicados. El sistema de comprensión integra varios módulos, de entre los que destacan el primero, que construye modelos causales para los enunciados y acciones que componen la entrada –manteniendo un conjunto de esquemas estereotípicos candidatos para construir una explicación–, y el modulo de aprendizaje, que determina cuándo un cierto plan observado es interesante y reúne los requisitos para ser añadido como nuevo esquema para la comprensión de futuras narraciones.
Resumo:
Este artículo afronta el problema de la conversión de estructuras morfosintácticas a una representación semántica basada en marcos y viceversa. Los algoritmos de interpretación presentados emplean el mismo conjunto de reglas para realizar dicha conversión en ambos sentidos (para análisis y generación) y se centran en recorrer el árbol morfosintáctico/semántico de forma descendente aplicando las reglas de interpretación recursivamente a sus constituyentes.
Resumo:
La visión por computador es una parte de la inteligencia artificial que tiene una aplicación industrial muy amplia, desde la detección de piezas defectuosas al control de movimientos de los robots para la fabricación de piezas. En el ámbito aeronáutico, la visión por computador es una herramienta de ayuda a la navegación, pudiendo usarse como complemento al sistema de navegación inercial, como complemento a un sistema de posicionamiento como el GPS, o como sistema de navegación visual autónomo.Este proyecto establece una primera aproximación a los sistemas de visión articial y sus aplicaciones en aeronaves no tripuladas. La aplicación que se desarrollará será la de apoyo al sistema de navegación, mediante una herramienta que a través de las imágenes capturadas por una cámara embarcada, dé la orden al autopiloto para posicionar el aparato frente la pista en la maniobra de aterrizaje.Para poder realizar ese cometido, hay que estudiar las posibilidades y los desarrollos que el mercado ofrece en este campo, así como los esfuerzos investigadores de los diferentes centros de investigación, donde se publican multitud soluciones de visión por computador para la navegación de diferentes vehículos no tripulados, en diferentes entornos. Ese estudio llevará a cabo el proceso de la aplicación de un sistema de visión articial desde su inicio. Para ello, lo primero que se realizará será definir una solución viable dentro de las posibilidades que la literatura permita conocer. Además, se necesitará realizar un estudio de las necesidades del sistema, tanto de hardware como de software, y acudir al mercado para adquirir la opción más adecuada que satisfaga esas necesidades. El siguiente paso es el planteamiento y desarrollo de la aplicación, mediante la defnición de un algoritmo y un programa informático que aplique el algoritmo y analizar los resultados de los ensayos y las simulaciones de la solución. Además, se estudiará una propuesta de integración en una aeronave y la interfaz de la estación de tierra que debe controlar el proceso. Para finalizar, se exponen las conclusiones y los trabajos futuros para continuar la labor de desarrollo de este proyecto.
Resumo:
Desde el comienzo de la Historia, el ser humano ha pensado en su futuro, ya fuera por el hecho de preocuparse por su supervivencia o por razones más filosóficas, como el porvenir como especie. Pensar en el futuro es anticipación. El género de la ciencia ficción es el que más se basa en la anticipación. En muchos subgéneros de la ciencia ficción se tratan temas futuristas, viajes espaciales a otros planetas, inteligencia artificial, etc. Por otra parte, en la actualidad vivimos un período donde los cambios en las TIC (Tecnologías de la Información y Comunicación) son prácticamente diarios, aunque podría llegar a decirse que los cambios se producen hora a hora. A veces, muchos de estos avances nos parecen producto de la fantasía o la ciencia ficción, o salidos de alguna película futurista. Sin embargo, dichos avances son perfectamente posibles y explicables a través de la ciencia actual. A través de este proyecto se pretenden analizar estos avances, relacionándolos con distintas obras de ciencia ficción. Una gran cantidad de los avances tecnológicos tienen su origen en alguna obra de la ciencia ficción, ya sea literatura o cine. Otro objetivo es realizar un estudio de diferentes propuestas tecnológicas de diferentes obras de esta rama que no se hayan realizado todavía, y analizar su viabilidad, su utilidad y los posibles cambios sociológicos que produciría en el mundo en el que vivimos. El tercer objetivo es evaluar la aptitud y actitud de los ingenieros de telecomunicación en cuanto a la innovación y la proyección hacia el futuro de los estos posibles cambios tecnológicos. Abstract Since the beginning of History, humans have thought about their future, either concerned about survival or by philosophical reasons like the future as species. Thinking about the future is speculation. The science fiction genre is the one that is based on speculation. Sub-genres of science fiction covers futuristic themes like space travel to other planets, artificial intelligence, etc. Today we live in a period where changes in ICT (Information and Communication Technologies) are almost daily, although we should say that changes occur in a matter of hours. Sometimes, many of these advances seem a product of fantasy or science fiction, or coming out of a futuristic movie. However, these advances are perfectly possible and explainable by current science. Through this project the intention is to analyze these developments, relating them to various works of science fiction. A great number of this technological advancements have their origin in a work of science fiction, either literature or film. Another objective is to study different technological proposals of this genre that have not been done yet, and analyze their feasibility, usefulness and potential sociological changes that occur in the world we live in. The third objective is to evaluate the ability and attitude of telecommunication engineers in terms of innovation and future projection of these potential technological changes.
Resumo:
Las tendencias actuales dentro de la Inteligencia Artificial y los Sistemas Expertos se mueven hacia la excitante posibilidad de reproducir y simular el conocimiento y comportamiento humanos dentro de Bases de Conocimiento, acopladas con códigos computacionales parcialmente inteligentes. Así, este trabajo se ocupa de la predicción del nivel de calidad en estructuras mediante un sistema experto denominado QL-CONST1, capaz de "razonar" sobre este campo de la ingeniería estructural. La Base de Conocimientos ha sido desarrollada en términos probabilísticos de hipótesis y evidencias, con la invalorable ayuda de expertos humanos en ingeniería estructural. Se incluyen algunos ejemplos ilustrativos para validar el comportamiento del sistema experto.
Resumo:
Este libro trata exactamente de lo que dice su título. Como primera impresión, a algunas personas puede parecerles innecesario publicar un texto sobre fundamentos en una época en que la informática ha llegado en su difusión casi a formar parte material del mobiliario hogareño. Además de este efecto distributivo sobre la sociedad, los espectaculares progresos tecnológicos han producido un crecimiento desbordante de la especialización. Los sistemas operativos, las bases de datos, los lenguajes concurrentes, la programación lógica, la inteligencia artificial, la arquitectura de ordenadores, las redes, las herramientas de ayuda para ingeniería de software y tantas otras más específicas e instrumentales son áreas de trabajo o técnicas que por sí solas requieren esfuerzos considerables por parte de quienes pretenden estudiar y seguir su evolución.
Resumo:
Durante muchos años, la hipótesis del Valle Inquietante propuesta por Mori, no sólo ha sido estudiada, respetada y hasta temida por diseñadores y desarrolladores robóticos, sino que sus efectos han sido de interés científico en los ámbitos de la Psicológia, la Ciencia Cognitiva, la Inteligencia Artificial, la Creación de videojuegos y la Animación. Aquellos que siguen la línea de Mori prefieren mantenerse lo suficientemente alejados del valle para garantizar el éxito de sus creaciones. Sin embargo un grupo de investigadores más osados, dispuestos no solo a entrar en el Valle sino también a descubrir una salida, han conseguido a través de los resultados de sus experimentos, poner en tela de duda la hipótesis planteada por el profesor japonés, dando paso al planteamiento de nuevas teorías.
Resumo:
La dificultad para el establecimiento de pautas de dimensionamiento de Plataformas Logísticas y, en especial, de las Zonas de Actividades Logísticas (ZAL), recae en la heterogeneidad del desarrollo de este tipo de nodos de transporte a nivel internacional. Bajo la denominación genérica de Plataformas Logísticas han surgido multitud de iniciativas en la escena internacional, que, respondiendo a diferentes motivos de implantación de un nodo de intercambio modal, ha producido la aparición de diferentes tipos de Plataformas con diversos objetivos que implican unidades funcionales específicas, con necesidades de localización, instalación y superficie necesaria deferentes. Este sector logístico tan importante, se encuentra sin metodologías, herramientas o programas que permitan establecer los parámetros de planificación y explotación óptimos para las diferentes zonas de actividades logísticas, si bien se han desarrollado tecnologías de trazabilidad de la carga y elementos basadas en la planificación logística, con el objetivo de determinar los parámetros óptimos de explotación y planificación portuaria, a través de la clasificación de las zonas de actividades logísticas, añadiendo la inferencia de escenarios virtuales. Como resultado principal se destaca que, mediante el empleo de herramientas de inteligencia artificial, modelos gráficos probabilísticos: Redes Bayesianas (BN), se han definido las principales variables de planificación de las zonas de actividades logísticas y se puede planificar con BN una ZAL seleccionando las variables conocidas y obteniendo las variables a predecir.
Resumo:
La disponibilidad en Internet de grandes volúmenes de información en los que se basan decisiones relacionadas con el funcionamiento de sistemas dinámicos hace que cada vez sean más necesarios métodos efectivos de generación automáti-ca de resumen de información de comportamiento. En este artículo se describe la aplicación MSB (Multimedia Summari-zer of Behavior) como una herramienta software que genera presentaciones multimedia de resumen de comportamiento de sistemas dinámicos para ser presentadas en la Web. MSB usa como entrada datos de comportamiento de fuentes remo-tas (medidos por sensores) que pueden estar disponibles en diferentes servidores Web. Estas fuentes de información se interpretan y resumen usando métodos del campo de la Inteligencia Artificial simulando formas de razonamiento que realizan las personas al resumir información de interés. En el artículo se describe la arquitectura basada en el conocimien-to del sistema MSB y la aplicación desarrollada en el dominio de hidrología sobre comportamiento de cuencas hidrográ-ficas.
Resumo:
A lo largo de las últimas décadas el desarrollo de la tecnología en muy distintas áreas ha sido vertiginoso. Su propagación a todos los aspectos de nuestro día a día parece casi inevitable y la electrónica de consumo ha invadido nuestros hogares. No obstante, parece que la domótica no ha alcanzado el grado de integración que cabía esperar hace apenas una década. Es cierto que los dispositivos autónomos y con un cierto grado de inteligencia están abriéndose paso de manera independiente, pero el hogar digital, como sistema capaz de abarcar y automatizar grandes conjuntos de elementos de una vivienda (gestión energética, seguridad, bienestar, etc.) no ha conseguido extenderse al hogar medio. Esta falta de integración no se debe a la ausencia de tecnología, ni mucho menos, y numerosos son los estudios y proyectos surgidos en esta dirección. Sin embargo, no ha sido hasta hace unos pocos años que las instituciones y grandes compañías han comenzado a prestar verdadero interés en este campo. Parece que estamos a punto de experimentar un nuevo cambio en nuestra forma de vida, concretamente en la manera en la que interactuamos con nuestro hogar y las comodidades e información que este nos puede proporcionar. En esa corriente se desarrolla este Proyecto Fin de Grado, con el objetivo de aportar un nuevo enfoque a la manera de integrar los diferentes dispositivos del hogar digital con la inteligencia artificial y, lo que es más importante, al modo en el que el usuario interactúa con su vivienda. Más concretamente, se pretende desarrollar un sistema capaz de tomar decisiones acordes al contexto y a las preferencias del usuario. A través de la utilización de diferentes tecnologías se dotará al hogar digital de cierta autonomía a la hora de decidir qué acciones debe llevar a cabo sobre los dispositivos que contiene, todo ello mediante la interpretación de órdenes procedentes del usuario (expresadas de manera coloquial) y el estudio del contexto que envuelve al instante de ejecución. Para la interacción entre el usuario y el hogar digital se desarrollará una aplicación móvil mediante la cual podrá expresar (de manera conversacional) las órdenes que quiera dar al sistema, el cual intervendrá en la conversación y llevará a cabo las acciones oportunas. Para todo ello, el sistema hará principalmente uso de ontologías, análisis semántico, redes bayesianas, UPnP y Android. Se combinará información procedente del usuario, de los sensores y de fuentes externas para determinar, a través de las citadas tecnologías, cuál es la operación que debe realizarse para satisfacer las necesidades del usuario. En definitiva, el objetivo final de este proyecto es diseñar e implementar un sistema innovador que se salga de la corriente actual de interacción mediante botones, menús y formularios a los que estamos tan acostumbrados, y que permita al usuario, en cierto modo, hablar con su vivienda y expresarle sus necesidades, haciendo a la tecnología un poco más transparente y cercana y aproximándonos un poco más a ese concepto de hogar inteligente que imaginábamos a finales del siglo XX. ABSTRACT. Over the last decades the development of technology in very different areas has happened incredibly fast. Its propagation to all aspects of our daily activities seems to be inevitable and the electronic devices have invaded our homes. Nevertheless, home automation has not reached the integration point that it was supposed to just a few decades ago. It is true that some autonomic and relatively intelligent devices are emerging, but the digital home as a system able to control a large set of elements from a house (energy management, security, welfare, etc.) is not present yet in the average home. That lack of integration is not due to the absence of technology and, in fact, there are a lot of investigations and projects focused on this field. However, the institutions and big companies have not shown enough interest in home automation until just a few years ago. It seems that, finally, we are about to experiment another change in our lifestyle and how we interact with our home and the information and facilities it can provide. This Final Degree Project is developed as part of this trend, with the goal of providing a new approach to the way the system could integrate the home devices with the artificial intelligence and, mainly, to the way the user interacts with his house. More specifically, this project aims to develop a system able to make decisions, taking into account the context and the user preferences. Through the use of several technologies and approaches, the system will be able to decide which actions it should perform based on the order interpretation (expressed colloquially) and the context analysis. A mobile application will be developed to enable the user-home interaction. The user will be able to express his orders colloquially though out a conversational mode, and the system will also participate in the conversation, performing the required actions. For providing all this features, the system will mainly use ontologies, semantic analysis, Bayesian networks, UPnP and Android. Information from the user, the sensors and external sources will be combined to determine, through the use of these technologies, which is the operation that the system should perform to meet the needs of the user. In short, the final goal of this project is to design and implement an innovative system, away from the current trend of buttons, menus and forms. In a way, the user will be able to talk to his home and express his needs, experiencing a technology closer to the people and getting a little closer to that concept of digital home that we imagined in the late twentieth century.
Resumo:
La mejora continua de los procesos de fabricación es fundamental para alcanzar niveles óptimos de productividad, calidad y coste en la producción de componentes y productos. Para ello es necesario disponer de modelos que relacionen de forma precisa las variables que intervienen en el proceso de corte. Esta investigación tiene como objetivo determinar la influencia de la velocidad de corte y el avance en el desgaste del flanco de los insertos de carburos recubiertos GC1115 y GC2015 y en la rugosidad superficial de la pieza mecanizada de la pieza en el torneado de alta velocidad en seco del acero AISI 316L. Se utilizaron entre otros los métodos de observación científica, experimental, medición, inteligencia artificial y estadísticos. El inserto GC1115 consigue el mejor resultado de acuerdo al gráfico de medias y de las ecuaciones de regresión múltiple de desgaste del flanco para v= 350 m/min, mientras que para las restantes velocidades el inserto GC2015 consigue el mejor desempeño. El mejor comportamiento en cuanto a la rugosidad superficial de la pieza mecanizada se obtuvo con el inserto GC1115 en las velocidades de 350 m/min y 400 m/min, en la velocidad de 450 m/min el mejor resultado correspondió al inserto GC2015. Se analizaron dos criterios nuevos, el coeficiente de vida útil de la herramienta de corte en relación al volumen de metal cortado y el coeficiente de rugosidad superficial de la pieza mecanizada en relación al volumen de metal cortado. Fueron determinados los modelos de regresión múltiple que permitieron calcular el tiempo de mecanizado de los insertos sin que alcanzaran el límite del criterio de desgaste del flanco. Los modelos desarrollados fueron evaluados por sus capacidades de predicción con los valores medidos experimentalmente. ABSTRACT The continuous improvement of manufacturing processes is critical to achieving optimal levels of productivity, quality and cost in the production of components and products. This is necessary to have models that accurately relate the variables involved in the cutting process. This research aims to determine the influence of the cutting speed and feed on the flank wear of carbide inserts coated by GC1115 and GC2015 and the surface roughness of the workpiece for turning dry high speed steel AISI 316L. Among various scientific methods this study were used of observation, experiment, measurement, statistical and artificial intelligence. The GC1115 insert gets the best result according to the graph of means and multiple regression equations of flank wear for v = 350 m / min, while for the other speeds the GC2015 insert gets the best performance. Two approaches are discussed, the life ratio of the cutting tool relative to the cut volume and surface roughness coefficient in relation to the cut volume. Multiple regression models were determined to calculate the machining time of the inserts without reaching the limit of the criterion flank wear. The developed models were evaluated for their predictive capabilities with the experimentally measured values.
Resumo:
El presente proyecto trata sobre uno de los campos más problemáticos de la inteligencia artificial, el reconocimiento facial. Algo tan sencillo para las personas como es reconocer una cara conocida se traduce en complejos algoritmos y miles de datos procesados en cuestión de segundos. El proyecto comienza con un estudio del estado del arte de las diversas técnicas de reconocimiento facial, desde las más utilizadas y probadas como el PCA y el LDA, hasta técnicas experimentales que utilizan imágenes térmicas en lugar de las clásicas con luz visible. A continuación, se ha implementado una aplicación en lenguaje C++ que sea capaz de reconocer a personas almacenadas en su base de datos leyendo directamente imágenes desde una webcam. Para realizar la aplicación, se ha utilizado una de las librerías más extendidas en cuanto a procesado de imágenes y visión artificial, OpenCV. Como IDE se ha escogido Visual Studio 2010, que cuenta con una versión gratuita para estudiantes. La técnica escogida para implementar la aplicación es la del PCA ya que es una técnica básica en el reconocimiento facial, y además sirve de base para soluciones mucho más complejas. Se han estudiado los fundamentos matemáticos de la técnica para entender cómo procesa la información y en qué se datos se basa para realizar el reconocimiento. Por último, se ha implementado un algoritmo de testeo para poder conocer la fiabilidad de la aplicación con varias bases de datos de imágenes faciales. De esta forma, se puede comprobar los puntos fuertes y débiles del PCA. ABSTRACT. This project deals with one of the most problematic areas of artificial intelligence, facial recognition. Something so simple for human as to recognize a familiar face becomes into complex algorithms and thousands of data processed in seconds. The project begins with a study of the state of the art of various face recognition techniques, from the most used and tested as PCA and LDA, to experimental techniques that use thermal images instead of the classic visible light images. Next, an application has been implemented in C + + language that is able to recognize people stored in a database reading images directly from a webcam. To make the application, it has used one of the most outstretched libraries in terms of image processing and computer vision, OpenCV. Visual Studio 2010 has been chosen as the IDE, which has a free student version. The technique chosen to implement the software is the PCA because it is a basic technique in face recognition, and also provides a basis for more complex solutions. The mathematical foundations of the technique have been studied to understand how it processes the information and which data are used to do the recognition. Finally, an algorithm for testing has been implemented to know the reliability of the application with multiple databases of facial images. In this way, the strengths and weaknesses of the PCA can be checked.