1000 resultados para Inteligencia artificial : Mineracao
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The applications market is heated and has grown in the recent years, every day thousands of apps are downloaded and many of these are electronic games and are intended for smartphones and tablets. The electronic games are often integrated with an online system which has the function of providing extra functionality to the players. This project proposes the development of online support system to a game designed for mobile devices, consisting of a website and a database which has the function of storing data online beyond a system called the back end which has the function to integrate all the modules mentioned previously
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
La detección de los bordes de líneas en la carretera es una parte muy importante en los sistemas inteligentes de transportación, así como la detección de objetos tal como vehículos, con la finalidad de informar o prevenir a través de una alerta al conductor o al sistema informático. De aquí nace el interés de analizar algunos métodos de visión artificial (VA) que es un subcampo de la inteligencia artificial, cuyo propósito es programar un computador y que este “entienda” una escena o imagen, algunos de los métodos más comunes en la detección de líneas y vehículos (considerados objetos en nuestra investigación) son la transformada de Hough, el método de Canny, clasificador Haar Cascade, filtros de Fourier, etc. Se desarrollará una aplicación de escritorio o PC (Personal Computer) para el reconocimiento de vehículos y las líneas de bordes, el lenguaje de programación utilizado será Python y la biblioteca OpenCV que contiene más de 500 funciones en el campo de visión por computador. La validación del reconocimiento de objetos se la realizará con una prueba de campo. Este resultado apoyará a la automoción (máquina que se desplaza por acción de un motor como el vehículo) con datos que luego pueden ser procesados.
Resumo:
En la actualidad, existe un concepto que está cobrando especial relevancia, el cual es conocido como IoT (Internet of Things, Internet de las Cosas) [1]. En el IoT [2] se define la interconexión digital de objetos cotidianos con internet, esto significa que no sólo “los humanos” tenemos la capacidad de conectarnos a internet, sino que caminamos hacia una nueva era donde prácticamente cualquier cosa podría ser conectada a internet, desde un reloj (smartwatch), como tenemos en la actualidad, hasta una nevera, una persiana, una sartén, etc. En este proyecto se ha querido aplicar ciertas fases del IoT, para convertir una información ambiental poco sesgada, proporcionada por una pequeña estación meteorológica, en un valor adicional a la hora de tomar decisiones basadas en las variables ambientales, para determinar, según un proceso de aprendizaje automático, la sensación que una persona percibe en relación al tiempo meteorológico en un determinado momento. Para ello utilizamos una serie de sensores que se encargan de darnos la información ambiental necesaria (como la temperatura, humedad y presión atmosférica) una fuente de procesamiento como puede ser un micro-controlador, para después poder manejarla y procesarla en la nube, de forma remota, adquiriendo así el valor añadido que se espera en el IoT. Además, en este proyecto se aplican técnicas de Inteligencia Artificial para ayudar al usuario en esa toma de decisiones, mediante un proceso de entrenamiento previo, que permite obtener información relevante para aplicarla posteriormente en el contexto meteorológico mencionado. Para manejar todos estos conceptos y elementos, se hace uso de servicios Web, bases de datos, procesamiento y aprendizaje automático, integrando todos los servicios en una misma plataforma que facilite la comunicación de todos los elementos involucrados.
Resumo:
Se presenta en esta memoria el trabajo desarrollado durante el curso 2013/14 por los componentes de la “Red de investigación en Visión Artificial y Robótica. Establecimiento de contenidos e implantación y seguimiento del plan de evaluación”. Código de Red ICE 3031. Este ha sido el primer curso en el que se imparte la asignatura a estudio y nuestros esfuerzos han estado orientados tanto a la valoración de los materiales elaborados en los años precedentes como al seguimiento y ponderación del sistema de evaluación propuesto para la asignatura de Visión Artificial y Robótica y que consiste en la evaluación continua de trabajos desarrollados por los estudiantes a lo largo de todo el cuatrimestre. Además, estos trabajos han de ser expuestos oralmente en el aula. Para ello, el alumno ha de desarrollar también las transparencias que le sirvan para apoyar su presentación.
Resumo:
El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.
Resumo:
This article discusses the development of an Intelligent Distributed Environmental Decision Support System, built upon the association of a Multi-agent Belief Revision System with a Geographical Information System (GIS). The inherent multidisciplinary features of the involved expertises in the field of environmental management, the need to define clear policies that allow the synthesis of divergent perspectives, its systematic application, and the reduction of the costs and time that result from this integration, are the main reasons that motivate the proposal of this project. This paper is organised in two parts: in the first part we present and discuss the developed - Distributed Belief Revision Test-bed - DiBeRT; in the second part we analyse its application to the environmental decision support domain, with special emphasis on the interface with a GIS.
Resumo:
This article discusses the development of an Intelligent Distributed Environmental Decision Support System, built upon the association of a Multi-agent Belief Revision System with a Geographical Information System (GIS). The inherent multidisciplinary features of the involved expertises in the field of environmental management, the need to define clear policies that allow the synthesis of divergent perspectives, its systematic application, and the reduction of the costs and time that result from this integration, are the main reasons that motivate the proposal of this project. This paper is organised in two parts: in the first part we present and discuss the developed ; in the second part we analyse its application to the environmental decision support domain, with special emphasis on the interface with a GIS.
Resumo:
El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.
Resumo:
En la actualidad la información es uno de los elementos de mayor valor agregado, más cuando es expresión novedosa y útil que permite acelerar el proceso de toma de decisiones o aumentar el conocimiento sobre determinados elementos. Los volúmenes de información que se generan en forma permanente (por ej. en el ámbito hospitalario, experimento genómicos, epidimeológicos, etc.) están creciendo considerablemente. El análisis y procesos diagnósticos exitosos implican la utilización de un número cada vez mayor de variables a asociar. Por otra parte, el formato digital está reemplazando cada vez más el papel en todos los ambientes, desde el empresarial hasta el de salud, pasando indudablemente por el de los experimentos científicos, particularmente los experimentos genéticos. Estos procesos de recolección o generación de información producen volúmenes tales que superan las capacidades humanas para analizarlas. Esta limitación se debe a varios factores, entre los que podemos mencionar, la disponibilidad en tiempo y la incapacidad de relacionar grandes volúmenes con eventos y una gran cantidad de variables. Entonces ¿Qué hacer con toda la información disponible? ¿Cómo extraer conocimiento de dicha información? El Descubrimiento de Información en Bases de Datos (DIBD) y las técnicas de Minería de Datos (MD) (entre las que podemos mencionar aquellas provenientes del campo de la Inteligencia Artificial, tales como los modelos Neuronales Artificiales) son metodologías asociadas, tendientes a resolver los problemas de la extracción de información novel y útil sobre un conjunto de datos y/o señales biomédicas. Este proyecto trata sobre el desarrollo y aplicación de metodologías de análisis de datos para el descubrimiento de información en bases de datos biológicas y biomédicas, tendientes a mejorar y/o desarrollar nuevas técnicas de diagnóstico, como también para el análisis de señales e información biomédica.
Resumo:
Diversas disciplinas científicas tales como la Psicología, las neurociencias, la psicología evolutiva, la inteligencia artificial, la lingüística, etc., abordan el estudio de los fenómenos mentales desde diferentes ángulos y con presupuestos y metodologías particulares. Por otra parte, en el marco disciplinario de la filosofía de la mente, especialmente en los últimos años, se han encarado investigaciones en torno a distintos tópicos especiales (representación, causación mental, intencionalidad, procesamiento de información, fenómenos cualitativos, subjetividad, auto-conocimiento, etc.) que han sido discutidos en diferentes niveles de análisis: ontológico, epistemológico, metodológico, semántico. Esta situación trae como consecuencia el desarrollo de investigaciones paralelas cuyas vinculaciones sólo excepcionalmente son advertidas, e incluso en el caso de algunas disciplinas aplicadas, ni siquiera se consideran los resultados de las indagaciones teóricas, lo que las lleva a incurrir tanto en errores conceptuales como la interpretación. (...) En la anterior etapa de investigación hemos logrado realizar un relevamiento general, en algunas de las disciplinas mencionadas, de los distintos marcos conceptuales y explicativos empleados en teorías de la intencionalidad. En esta nueva etapa nos proponemos analizar y evaluar las principales dificultades y discusiones epistemológicas implicadas en el intento de construir una única teoría global acerca de lo mental, vinculando diferentes disciplinas. (...) En esta primera etapa prevemos abordar el problema planteado abocándonos al estudio de una temática especial, presente en los desarrollos teóricos de las distintas disciplinas e ineludible para la construcción de una teoría transdisciplinaria acerca de los fenómenos mentales: el problema de la conciencia. (...) Objetivos específicos: 1. Examinar las teorías alternativas de la conciencia (empíricas y filosóficas) discriminando en especial sus presupuestos epistemológicos. 2. Comparar los marcos teóricos globales que se desprenden de las teorías de la conciencia con las interpretaciones que de ella se postulan en los distintos contextos disciplinarios (psicología, lingüística, etc.). 3. Evaluar la viabilidad de una teoría unitaria de la conciencia, atendiendo a las condiciones de adecuación epistemológica de acuerdo con un enfoque interdisciplinario.
Resumo:
Este proyecto de investigación pretende ser un paso más en complejidad y profundidad dentro del plan de trabajo sobre comprensión lectora en sujetos escolarizados del nivel medio en Córdoba, capital. En esta etapa se estima conveniente: a) avanzar sobre los libros en los cuales los adolescentes se nutren de "lectura" escolar a fin de estipular qué "textos" tiene internalizado el alumno y cómo opera esa internalización en el proceso de comprensión lectora, b) trabajar con los docentes que, a cargo de cursos y/o áreas, necesitan una conducción para reciclar su operación pedagógico-didáctica en comprensión lectora, así como los fundamentos teóricos y, con esos docentes, ir corroborando los intentos investigativos del proyecto, c) todo ello acompañado de una línea sostenida de estudio teórico -atento a la abundante bibliografía que esta apareciendo en todo el mundo occidental- en particular a la luz de lo que evidencie el estudio estadístico que se haga al corpus de pruebas de lectura comprensiva aplicadas durante 1993/94, en 448 sujetos escolarizados de Córdoba (ver anexo), d) continuar con el trabajo compartido, vía convenio de Universidad a Universidad, con el prestigioso Instituto de Literatura y Ciencias del Lenguaje de Valparaíso, Chile, intentando acercarse a realidades similares en ambos países. El proyecto cobra importancia en tanto y en cuanto: a) los problemas de comprensión y de producción lingüística están siendo atentamente mirados por la interdisciplina actual (psicolingüística, neurolingüística, ciencias de la educación, inteligencia artificial), b) los nuevos contenidos curriculares para el área de lengua que se implementarán próximamente, centran la atención en la aptitud comprensivo-productiva del alumno, lo que requiere, por una parte, estar informado de cómo "ocurre" la comprensión para saber dónde y cómo habría que ratificar caminos y la otra, preparar al docente para una nueva manera de encarar el trabajo áulico que, en lo que atañe a comprensión o a producción, requieren hoy vías específicas (hay sostenida bibliografía ad-hoc). Si el mundo está reclamando excelencia en educación y si a las universidades se les pide salir a la realidad de los hechos para aportar su ciencia, se estima que este proyecto, concatenando preocupación por el proceso de enseñanza aprendizaje de la lengua y preparación teórica, pueda ser una humilde contribución a esas aspiraciones.