1000 resultados para Inteligencia artificial -- TFC
Resumo:
This article discusses the development of an Intelligent Distributed Environmental Decision Support System, built upon the association of a Multi-agent Belief Revision System with a Geographical Information System (GIS). The inherent multidisciplinary features of the involved expertises in the field of environmental management, the need to define clear policies that allow the synthesis of divergent perspectives, its systematic application, and the reduction of the costs and time that result from this integration, are the main reasons that motivate the proposal of this project. This paper is organised in two parts: in the first part we present and discuss the developed ; in the second part we analyse its application to the environmental decision support domain, with special emphasis on the interface with a GIS.
Resumo:
El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.
Resumo:
En la actualidad la información es uno de los elementos de mayor valor agregado, más cuando es expresión novedosa y útil que permite acelerar el proceso de toma de decisiones o aumentar el conocimiento sobre determinados elementos. Los volúmenes de información que se generan en forma permanente (por ej. en el ámbito hospitalario, experimento genómicos, epidimeológicos, etc.) están creciendo considerablemente. El análisis y procesos diagnósticos exitosos implican la utilización de un número cada vez mayor de variables a asociar. Por otra parte, el formato digital está reemplazando cada vez más el papel en todos los ambientes, desde el empresarial hasta el de salud, pasando indudablemente por el de los experimentos científicos, particularmente los experimentos genéticos. Estos procesos de recolección o generación de información producen volúmenes tales que superan las capacidades humanas para analizarlas. Esta limitación se debe a varios factores, entre los que podemos mencionar, la disponibilidad en tiempo y la incapacidad de relacionar grandes volúmenes con eventos y una gran cantidad de variables. Entonces ¿Qué hacer con toda la información disponible? ¿Cómo extraer conocimiento de dicha información? El Descubrimiento de Información en Bases de Datos (DIBD) y las técnicas de Minería de Datos (MD) (entre las que podemos mencionar aquellas provenientes del campo de la Inteligencia Artificial, tales como los modelos Neuronales Artificiales) son metodologías asociadas, tendientes a resolver los problemas de la extracción de información novel y útil sobre un conjunto de datos y/o señales biomédicas. Este proyecto trata sobre el desarrollo y aplicación de metodologías de análisis de datos para el descubrimiento de información en bases de datos biológicas y biomédicas, tendientes a mejorar y/o desarrollar nuevas técnicas de diagnóstico, como también para el análisis de señales e información biomédica.
Resumo:
Diversas disciplinas científicas tales como la Psicología, las neurociencias, la psicología evolutiva, la inteligencia artificial, la lingüística, etc., abordan el estudio de los fenómenos mentales desde diferentes ángulos y con presupuestos y metodologías particulares. Por otra parte, en el marco disciplinario de la filosofía de la mente, especialmente en los últimos años, se han encarado investigaciones en torno a distintos tópicos especiales (representación, causación mental, intencionalidad, procesamiento de información, fenómenos cualitativos, subjetividad, auto-conocimiento, etc.) que han sido discutidos en diferentes niveles de análisis: ontológico, epistemológico, metodológico, semántico. Esta situación trae como consecuencia el desarrollo de investigaciones paralelas cuyas vinculaciones sólo excepcionalmente son advertidas, e incluso en el caso de algunas disciplinas aplicadas, ni siquiera se consideran los resultados de las indagaciones teóricas, lo que las lleva a incurrir tanto en errores conceptuales como la interpretación. (...) En la anterior etapa de investigación hemos logrado realizar un relevamiento general, en algunas de las disciplinas mencionadas, de los distintos marcos conceptuales y explicativos empleados en teorías de la intencionalidad. En esta nueva etapa nos proponemos analizar y evaluar las principales dificultades y discusiones epistemológicas implicadas en el intento de construir una única teoría global acerca de lo mental, vinculando diferentes disciplinas. (...) En esta primera etapa prevemos abordar el problema planteado abocándonos al estudio de una temática especial, presente en los desarrollos teóricos de las distintas disciplinas e ineludible para la construcción de una teoría transdisciplinaria acerca de los fenómenos mentales: el problema de la conciencia. (...) Objetivos específicos: 1. Examinar las teorías alternativas de la conciencia (empíricas y filosóficas) discriminando en especial sus presupuestos epistemológicos. 2. Comparar los marcos teóricos globales que se desprenden de las teorías de la conciencia con las interpretaciones que de ella se postulan en los distintos contextos disciplinarios (psicología, lingüística, etc.). 3. Evaluar la viabilidad de una teoría unitaria de la conciencia, atendiendo a las condiciones de adecuación epistemológica de acuerdo con un enfoque interdisciplinario.
Resumo:
Este proyecto de investigación pretende ser un paso más en complejidad y profundidad dentro del plan de trabajo sobre comprensión lectora en sujetos escolarizados del nivel medio en Córdoba, capital. En esta etapa se estima conveniente: a) avanzar sobre los libros en los cuales los adolescentes se nutren de "lectura" escolar a fin de estipular qué "textos" tiene internalizado el alumno y cómo opera esa internalización en el proceso de comprensión lectora, b) trabajar con los docentes que, a cargo de cursos y/o áreas, necesitan una conducción para reciclar su operación pedagógico-didáctica en comprensión lectora, así como los fundamentos teóricos y, con esos docentes, ir corroborando los intentos investigativos del proyecto, c) todo ello acompañado de una línea sostenida de estudio teórico -atento a la abundante bibliografía que esta apareciendo en todo el mundo occidental- en particular a la luz de lo que evidencie el estudio estadístico que se haga al corpus de pruebas de lectura comprensiva aplicadas durante 1993/94, en 448 sujetos escolarizados de Córdoba (ver anexo), d) continuar con el trabajo compartido, vía convenio de Universidad a Universidad, con el prestigioso Instituto de Literatura y Ciencias del Lenguaje de Valparaíso, Chile, intentando acercarse a realidades similares en ambos países. El proyecto cobra importancia en tanto y en cuanto: a) los problemas de comprensión y de producción lingüística están siendo atentamente mirados por la interdisciplina actual (psicolingüística, neurolingüística, ciencias de la educación, inteligencia artificial), b) los nuevos contenidos curriculares para el área de lengua que se implementarán próximamente, centran la atención en la aptitud comprensivo-productiva del alumno, lo que requiere, por una parte, estar informado de cómo "ocurre" la comprensión para saber dónde y cómo habría que ratificar caminos y la otra, preparar al docente para una nueva manera de encarar el trabajo áulico que, en lo que atañe a comprensión o a producción, requieren hoy vías específicas (hay sostenida bibliografía ad-hoc). Si el mundo está reclamando excelencia en educación y si a las universidades se les pide salir a la realidad de los hechos para aportar su ciencia, se estima que este proyecto, concatenando preocupación por el proceso de enseñanza aprendizaje de la lengua y preparación teórica, pueda ser una humilde contribución a esas aspiraciones.
Resumo:
Aquest és un projecte sobre la indexació de continguts televisius; és a dir, el procés d’etiquetatge de programes televisius per facilitar cerques segons diferents paràmetres. El món de la televisió està immers en un procés d'evolució i canvis gràcies a l'entrada de la televisió digital. Aquesta nova forma d'entendre la televisió obrirà un gran ventall de possibilitats i permetrà la interacció entre usuaris i emissora. El primer pas de la gestió de continguts consisteix en la indexació dels programes segons el contingut. Aquest és el nostre objectiu. Indexar els continguts televisius de manera automàtica mitjançant la intelligència artificial.
Resumo:
En aquest projecte, s'ha dissenyat, construït i programat un robot autònom, dotat de sistema de locomoció i sensors que li permeten navegar sense impactar en un entorn controlat. Per assolir aquests objectius s'ha dissenyat i programat una unitat de control que gestiona el hardware de baix volum de dades amb diferents modes d'operació, abstraient-lo en una única interfície. Posteriorment s'ha integrat aquest sistema en l'entorn de robòtica Pyro. Aquest entorn permet usar i adaptar, segons es necessiti, eines d'intel·ligència artificial ja desenvolupades.
Resumo:
En este trabajo se explica cuáles fueron las estrategias utilizadas y los resultados obtenidos en la primera exposición del nuevo esquema museográfico del Museo de Historia Natural de Londres, concebido por Roger Miles, Jefe del Departamento de Servicios Públicos de esa prestigiada institución. Esta iniciativa pretendía atraer a un mayor número de visitantes a partir de exposiciones basadas en modelos y módulos interactivos que relegaban a los objetos de las colecciones a un segundo plano. La exposición se tituló Human Biology y fue inaugurada el 24 de mayo de 1977. El tema de la exposición fue la biología humana, pero como se argumenta en este trabajo, Human Biology sirvió también como medio para legitimar el discurso modernizador de la biología humana, en tanto disciplina más rigurosa por las herramientas y técnicas más precisas que las utilizadas por la antropología física tradicional. Se buscaba también generar una audiencia para reforzar el campo interdisciplinario de la ciencia cognitiva y en particular la inteligencia artificial. El equipo de asesores científicos de la exposición contó entre sus miembros con personalidades que jugaron un papel protagónico en el desarrollo de esas disciplinas, y necesitaban demostrar su validez y utilidad ante los no especialistas y el público en general.
Estudi de comportaments socials d'aixams robòtics amb aplicació a la neteja d'espais no estructurats
Resumo:
La intel·ligència d’eixams és una branca de la intel·ligència artificial que està agafant molta força en els últims temps, especialment en el camp de la robòtica. En aquest projecte estudiarem el comportament social sorgit de les interaccions entre un nombre determinat de robots autònoms en el camp de la neteja de grans superfícies. Un cop triat un escenari i un robot que s’ajustin als requeriments del projecte, realitzarem una sèrie de simulacions a partir de diferents polítiques de cerca que ens permetran avaluar el comportament dels robots per unes condicions inicials de distribució dels robots i zones a netejar. A partir dels resultats obtinguts serem capaços de determinar quina configuració genera millors resultats.
Resumo:
Estudio e implantación de algoritmos de recomendación, búsqueda, ranking y aprendizaje.
Resumo:
Estudi i implementació d'un sistema multiagent intel·ligent i la seva aplicació a sistemes difusos. Utilització de les llibreries JADE i JFuzzyLogic.
Resumo:
El desarrollo de mundos virtuales inteligentes requiere el conocimiento de áreas tan diversas como la realidad virtual, la inteligencia artificial, la psicología, la sociología y la física. El documento que se desarrolla a continuación recoge las nociones básicas para entender lo que representa dicho desarrollo, el estado del arte de varias de las técnicas y modelos utilizados en algunas de estas áreas y sus posibles aplicaciones, además de una posible solución para su implementación.
Resumo:
BACKGROUND Functional brain images such as Single-Photon Emission Computed Tomography (SPECT) and Positron Emission Tomography (PET) have been widely used to guide the clinicians in the Alzheimer's Disease (AD) diagnosis. However, the subjectivity involved in their evaluation has favoured the development of Computer Aided Diagnosis (CAD) Systems. METHODS It is proposed a novel combination of feature extraction techniques to improve the diagnosis of AD. Firstly, Regions of Interest (ROIs) are selected by means of a t-test carried out on 3D Normalised Mean Square Error (NMSE) features restricted to be located within a predefined brain activation mask. In order to address the small sample-size problem, the dimension of the feature space was further reduced by: Large Margin Nearest Neighbours using a rectangular matrix (LMNN-RECT), Principal Component Analysis (PCA) or Partial Least Squares (PLS) (the two latter also analysed with a LMNN transformation). Regarding the classifiers, kernel Support Vector Machines (SVMs) and LMNN using Euclidean, Mahalanobis and Energy-based metrics were compared. RESULTS Several experiments were conducted in order to evaluate the proposed LMNN-based feature extraction algorithms and its benefits as: i) linear transformation of the PLS or PCA reduced data, ii) feature reduction technique, and iii) classifier (with Euclidean, Mahalanobis or Energy-based methodology). The system was evaluated by means of k-fold cross-validation yielding accuracy, sensitivity and specificity values of 92.78%, 91.07% and 95.12% (for SPECT) and 90.67%, 88% and 93.33% (for PET), respectively, when a NMSE-PLS-LMNN feature extraction method was used in combination with a SVM classifier, thus outperforming recently reported baseline methods. CONCLUSIONS All the proposed methods turned out to be a valid solution for the presented problem. One of the advances is the robustness of the LMNN algorithm that not only provides higher separation rate between the classes but it also makes (in combination with NMSE and PLS) this rate variation more stable. In addition, their generalization ability is another advance since several experiments were performed on two image modalities (SPECT and PET).
Resumo:
The Condemned es un juego de lucha en dos dimensiones desarrollado en Flash CS4 y ActionScript 3. El juego consta de cuatro pantallas, en cada una de ellas el jugador se enfrenta a un enemigo controlado por el ordenador a través de una inteligencia artificial. En la creación de este videojuego se ha pasado por todas las fases de desarrollo: diseño gráfico de personajes y escenarios, programación y control de errores.
Resumo:
In this paper the core functions of an artificial intelligence (AI) for controlling a debris collector robot are designed and implemented. Using the robot operating system (ROS) as the base of this work a multi-agent system is built with abilities for task planning.