995 resultados para Aprendizaje automático
Resumo:
Tesis (Maestría en Ingeniería de Sistemas) UANL, 2012.
Resumo:
Programa de doctorado: Economía Cuantitativa Aplicada
Resumo:
Premio Extraordinario, Área de Tecnológicas
Resumo:
En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.
Resumo:
La cantidad de datos biológicos y médicos que se produce hoy en día es enorme, y se podría decir que el campo de las ciencias de la vida forma parte ya del club del Big Data. Estos datos contienen información crucial que pueden ayudar a comprender mejor los mecanismos moleculares en los sistemas biológicos. Este conocimiento es fundamental para el progreso en el diagnóstico y en el tratamiento de las enfermedades. La Bioinformática, junto con la Biología Computacional, son disciplinas que se encargan de organizar, analizar e interpretar los datos procedentes de la Biología Molecular. De hecho, la complejidad y la heterogeneidad de los problemas biológicos requieren de un continuo diseño, implementación y aplicación de nuevos métodos y algoritmos. La minería de datos biológicos es una tarea complicada debido a la naturaleza heterogénea y compleja de dichos datos, siendo éstos muy dependientes de detalles específicos experimentales. Esta tesis se basa en el estudio de un problema biomédico complejo: la menor probabilidad de desarrollar algunos tipos de cáncer en pacientes con ciertos trastornos del sistema nervioso central (SNC) u otros trastornos neurológicos, y viceversa. Denominamos a esta condición como comorbilidad inversa. Desde el punto de vista médico, entender mejor las conexiones e interacciones entre cáncer y trastornos neurológicos podría mejorar la calidad de vida y el efecto de la asistencia médica de millones de personas en todo el mundo. Aunque la comorbilidad inversa ha sido estudiada a nivel médico, a través de estudios epidemiológicos, no se ha investigado en profundidad a nivel molecular...
Resumo:
Una condición previa a la realización de sistemas expertos, es decir, de sistemas con un nivel de competencia semejante al de un ser humano, experto en un dominio especifico del saber, es la identificación, recolección y formalización de conocimientos heurísticos.
Resumo:
En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.
Resumo:
La contribución de este artículo es el uso de métodos de aprendizaje automático en la arquitectura realizada dentro del proyecto RECLAMO en trabajos previos. La arquitectura se basa en un AIRS (sistema de respuestas a intrusiones automático) que infiere la respuesta más apropiada a un ataque, teniendo en cuenta el tipo de ataque, la información de contexto del sistema y la red, y la reputación del IDS que ha reportado la alerta. También, es imprescindible conocer el ratio de éxito y fracaso de las respuestas lanzadas ante un ataque, de tal manera que, además de tener un sistema adaptativo, se consiga la capacidad de autoaprendizaje. En este ámbito es donde las redes neuronales entran en juego, aportando la clasificación de éxito/fracaso de las respuestas.
Resumo:
La investigación se centra en dos disciplinas de la Inteligencia Artificial: la planificación de tareas y el aprendizaje automático. La planificación en Inteligencia Artificial se lleva a cabo con el desarrollo de sistemas de computación capaces de resolver problemas. Estos problemas deben tener solución a través un plan, integrado por un conjunto de acciones que permitan pasar de una situación inicial a otra nueva, en que se alcancen un conjunto de metas.. Normalmente, existen varias acciones que se pueden aplicar en cada situación o estado, unas hacen posible alcanzar un estado final en que se alcanzan las metas del problema y otras no. La planificación conlleva resolver un complejo problema computacional. Se considera un problema por tamaño del espacio de búsqueda que debe explorarse. Habitualmente se define algún tipo de conocimiento o heurística que permite realizar el plan eficientemente. Por otro lado, se dice de un programa de ordenador que aprende a partir de la experiencia E, con respecto a alguna clase de tarea T y una medida de rendimiento P, si su rendimiento en las tareas T, medido mediante P, mejora con la experiencia.. Este trabajo persigue el desarrollo de sistemas de aprendizaje automático para extraer el conocimiento de control, o heurísticas, adecuado, con el objetivo de incrementar la eficiencia del ordenador. También se intenta diseñar un análisis una metodología de aprendizaje adaptable a distintos paradigmas de planificación capaz de obtener heurísticas. Como trabajos futuros se propone desarrollar la especificación de un lenguaje común de representación del conocimiento de control.
Resumo:
Monográfico con el título: 'Adaptación y accesibilidad de las tecnologías para el aprendizaje'. Resumen basado en el de la publicación
Resumo:
[ES] La investigación que se resume en el presente artículo, da evidencia de la posibilidad de lograr exitosamente una taxonomía de laurásea canaria de forma automática, usando muestras de hojas. Imágenes digitalizadas por medio de un escáner, de un muestrario de hojas, son usadas como elementos de clasificación. Éstas son procesadas, extrayendo parámetros discriminantes que, por medio de diferentes modelos de aprendizaje automático, los identifican como descriptivos de pertenencia a una especie. El resultado se presenta con un valor de evidencia, medición que permite evaluar el peso de parámetros o conjuntos de parámetros en la clasificación. El sistema podría ser usado para determinar parámetros taxonómicos que permitan establecer un sistema de patentes de plantas desarrolladas o descubiertas, de interés económico.
Resumo:
Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.
Resumo:
El objetivo de este proyecto es desarrollar una aplicación multiplataforma que, dadas las preferencias de los clientes por las posibles características que se pueden dar a un producto, y dados los productos que vende la competencia, decida las características del producto a vender para que éste obtenga el mayor número de clientes, bien de manera inmediata, o bien a largo plazo. La solución óptima de este tipo de problemas es intratable, ya que no se pueden resolver en tiempo polinómico, por lo que nosotros utilizamos soluciones heurísticas, concretamente: algoritmos genéticos, algoritmos minimax, algoritmos de aprendizaje automático y algoritmos de interpolación. Además, realizamos un caso de estudio con datos reales obtenidos a través de una serie de encuestas utilizando una plataforma web, concretamente de la empresa Feebbo, que nos permitió obtener resultados sobre las preferencias de más de 500 encuestados. Las preguntas de las encuestas se centraron en un tipo de producto en particular, en nuestro caso teléfonos móviles.
Resumo:
169 p. : il. col.
Resumo:
Tesis leida dentro del Master de "Ingeniería Computacional y Sistemas Inteligentes"