11 resultados para Minería de datos (Informática)

em Repositorio Institucional de la Universidad de Málaga


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La intención del proyecto es mostrar las diferentes características que ofrece Oracle en el campo de la minería de datos, con la finalidad de saber si puede ser una plataforma apta para la investigación y la educación en la universidad. En la primera parte del proyecto se estudia la aplicación “Oracle Data Miner” y como, mediante un flujo de trabajo visual e intuitivo, pueden aplicarse las distintas técnicas de minería (clasificación, regresión, clustering y asociación). Para mostrar la ejecución de estas técnicas se han usado dataset procedentes de la universidad de Irvine. Con ello se ha conseguido observar el comportamiento de los distintos algoritmos en situaciones reales. Para cada técnica se expone como evaluar su fiabilidad y como interpretar los resultados que se obtienen a partir de su aplicación. También se muestra la aplicación de las técnicas mediante el uso del lenguaje PL/SQL. Gracias a ello podemos integrar la minería de datos en nuestras aplicaciones de manera sencilla. En la segunda parte del proyecto, se ha elaborado un prototipo de una aplicación que utiliza la minería de datos, en concreto la clasificación para obtener el diagnóstico y la probabilidad de que un tumor de mama sea maligno o benigno, a partir de los resultados de una citología.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Trabajo Fin de Grado se lleva a cabo la implementación de un mundo 3D a través del uso del entorno Unity en el se cual realizará el desarrollo de un agente 3D el cual interactúe con el entorno que le rodea. Para ello haremos uso de algoritmos relacionado con la inteligencia artificial así como aplicación de algoritmos relacionados con la minería de datos tales como redes neuronales basando su aprendizaje en algoritmos evolutivos o arboles de decisión, respectivamente. Así pues, el objetivo de este proyecto es la creación de un agente 3D el cual sea capaz de adaptarse al entorno que le rodea, siendo hostiles algunos de estos entornos. Habrá principalmente 2 entornos los cuales serán una ciudad donde el agente deberá recoger clientes en su rol de taxista y soltarlas reconociendo a través de una serie de variables que personas son de fiar y cuales no. El segundo entorno es una cancha de baloncesto donde el agente deberá aprender a lanzar a canasta y reconocer con qué estados meteorológicos es viable jugar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La minería de opinión o análisis de sentimiento es un tipo de análisis de texto que pretende ayudar a la toma de decisiones a través de la extracción y el análisis de opiniones, identificando las opiniones positivas, negativas y neutras; y midiendo su repercusión en la percepción de un tópico. En este trabajo se propone un modelo de análisis de sentimiento basado en diccionarios, que a través de la semántica y de los patrones semánticos que conforman el texto a clasificar, permite obtener la polaridad del mismo, en la red social Twitter. Para el conjunto de datos de entrada al sistema se han considerado datos públicos obtenidos de la red social Twitter, de compañías del sector de las telecomunicaciones que operan en el mercado Español.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Presentación para la docencia de la asignatura "Ingeniería del conocimiento biomédico y del producto, I+D en investigación traslacional del Master Universitario Investigación Traslacional y Medicina Personalizda (Transmed)de la Universidad de Granada.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Exhibitium Project , awarded by the BBVA Foundation, is a data-driven project developed by an international consortium of research groups . One of its main objectives is to build a prototype that will serve as a base to produce a platform for the recording and exploitation of data about art-exhibitions available on the Internet . Therefore, our proposal aims to expose the methods, procedures and decision-making processes that have governed the technological implementation of this prototype, especially with regard to the reuse of WordPress (WP) as development framework.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Our proposal aims to display the analysis techniques, methodologies as well as the most relevant results expected within the Exhibitium project framework (http://www.exhibitium.com). Awarded by the BBVA Foundation, the Exhibitium project is being developed by an international consortium of several research groups . Its main purpose is to build a comprehensive and structured data repository about temporary art exhibitions, captured from the web, to make them useful and reusable in various domains through open and interoperable data systems.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

R.TeMiS (R Text MIning Solution) (Bouchet-Valat & Bastin, 2013) es un paquete de R (RcmdrPlugin.temis) (Bouchet-Valat, 2016), concebido como plugin de R Commander, que permite analizar, manipular y crear corpus de textos (Garnier, 2014). La arquitectura estadística de RTemis corre a cargo del paquete tm desarrollado por Ingo Feinerer (Feinerer, 2008 ; 2011 ; Feinerer, Hornik y Meyer, 2008). R.TeMiS se ha completado con otros paquetes clásicos de R, como el paquete para la representación de los análisis factoriales de correspondencias de Nenadic y Greenacre (2007). También se han desarrollado paquetes específicos para facilitar el uso de R.TeMiS en los estudios de prensa, por ejemplo para la gestión de los corpus de artículos de prensa de la base de datos Factiva. R.TeMiS se presenta como un plugin de R Commander, desarrollado por Fox (2005), lo cual facilita su utilización para los no usuarios de R.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existen múltiples aplicaciones informáticas (Perea, 2008) para registrar conductas perceptibles que el desarrollo tecnológico actual ha posibilitado, pero la gran mayoría de los programas informáticos tienen problemas en facilitar la: observación, codificación, registro y análisis en contextos naturales; esto hace que dificulten la labor de los investigadores (Hernández-Mendo, Castellano, Camerino, Jonsson, Blanco-Villaseñor, Lopes, y Anguera, 2014). Este trabajo se inscribe en el marco de las investigaciones sobre software relacionados con la Metodología Observacional (Anguera y Hernández-Mendo, 2013, 2014, 2015). El objetivo general es el diseño e implementación de una herramienta que facilite la observación, codificación, registro y análisis de contextos naturales. Desarrollo Teórico HOISAN (Herramienta de observación de las interacciones en ambientes naturales) es una herramienta implementada haciendo uso de la plataforma .NET y del lenguaje C#, que nos ayuda en la tarea de observación, codificación, registro, descripción, manipulación y visionado de las conductas en el marco de la Metodología Observacional. Permite al usuario trabajar con varios tipos de datos (Bakeman y Quera, 1996). Por lo que respecta a la métrica del registro observacional se han calculado parámetros primarios y secundarios. El programa admite el intercambio de datos con programas específicos de uso en Metodología Observacional (SDIS-GSEQ, SAGT y THEME). Este programa satisface la vertiente más profesional al tiempo que la investigadora en su implementación. Hoisan permite un acercamiento a la Metodología Cualitativa con un carácter cuantitativo y mediante el análisis de los registros con producción verbal. Permite la estimación de la calidad del dato y realiza análisis secuencial de retardos y a partir de éste calcula los valores Z para un posterior análisis de coordenadas polares. Conclusiones El programa diseñado permite la realización de distintos cálculos de uso común en Metodología Observacional (MO) (Anguera y Hernández-Mendo, 2013, 2014, 2015). Esta característica hace al software Hoisan (Hernández-Mendo, López-López, Castellano, Morales-Sánchez y Pastrana, 2012) convertirse en una de las herramientas más completas para trabajar con MO en investigaciones de distintos ámbitos. Bibliografía Anguera, M.T. y Hernández-Mendo, A. (2013). La metodología observacional en el ámbito del deporte. E-balonmano.com: Revista de Ciencias del Deporte 9(3), 135-160. http://www.e-balonmano.com/ojs/index.php/revista/article/view/139. Anguera, M.T. y Hernández-Mendo, A. (2014). Metodología observacional y psicología del deporte: Estado de la cuestión. Revista de Psicología del Deporte, 23(1), 103-109. Anguera, M.T. y Hernández-Mendo, A. (2015). Técnicas de análisis en estudios observacionales en ciencias del deporte. Cuadernos de Psicología del Deporte, 15(1), 13-30. Bakeman, R. y Quera, V. (1996). Análisis de la interacción. Análisis secuencial con SDIS y GSEQ. Madrid: RA-MA. Hernández-Mendo, A., Castellano, J., Camerino, O., Jonsson, G., Blanco-Villaseñor, A., Lopes, A. y Anguera, M.T. (2014). Programas informáticos de registro, control de calidad del dato, y análisis de datos. Revista de Psicología del Deporte, 23(1), 111-121. Hernández-Mendo, A., López-López, J.A., Castellano, J., Morales-Sánchez, V. y Pastrana, J.L. (2012). HOISAN 1.2: Programa informático para uso en Metodología Observacional. Cuadernos de Psicología del Deporte, 12(1), 55- 78. Perea, A. (2008). Análisis de las acciones colectivas en el futbol de rendimiento. Tesis doctoral no publicada. San Sebastián: Universidad del País Vasco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis versa sobre las Autoridades de control en materia de protección de datos. Se divide en tres capítulos, cuyo criterio de división ha sido el territorio: Europa, Estados Unidos y España. En todos ellos se estudia el origen del derecho a la protección de datos, los instrumentos normativos, la jurisprudencia y los organismos encargados de su supervisión, sobre los que se focaliza el desarrollo de la investigación. En el primer capítulo se distinguen tres secciones: el Consejo de Europa, que incluye el Convenio Europeo de Derechos Humanos y el Convenio 108 así como su Protocolo Adicional y el estudio sobre la revisión del mismo; las Directrices Internacionales, incidiendo en el análisis de las Directrices de privacidad de la OCDE, las de la ONU, el Marco de Privacidad del Foro de Cooperación Asia-Pacífico y los Estándares Internacionales de la Resolución de Madrid; y el tercero, la Unión Europea, cuyo estudio profundiza desde la creación del derecho fundamental hasta la normativa europea, examinando la Directiva 95/46/CE de Protección de Datos, el Reglamento (CE) 45/2001 que regula el tratamiento de datos personales en las instituciones de la Unión Europea, la Carta de los Derechos Fundamentales y el nuevo Reglamento General de Protección de Datos. Finaliza este bloque con un análisis pormenorizado de las Autoridades Europeas de Protección de Datos, haciendo especial énfasis en el Supervisor Europeo de Protección de Datos y en el Consejo Europeo de Protección de Datos, valorando la nueva situación que se creará en Europa. Especial relevancia tiene el análisis sobre las características de los organismos de control y en especial sobre la independencia. En el segundo capítulo se realiza un paralelismo entre los modelos estadounidense y europeo, buscando las similitudes y diferencias, para lo que se explica el concepto de privacidad y la protección que EEUU le otorga, así como el tratamiento dado por el principal organismo que tutela los derechos de los ciudadanos en materia de privacidad, la Comisión Federal del Comercio (Federal Trade Commission). Se somete a análisis el Asunto Safe Harbour. El tercer capítulo se dedica a España, donde se analiza el reconocimiento del derecho fundamental a la protección de datos como derecho atípico y el reparto competencial existente teniendo en cuenta que ni la materia ni la competencia son reconocidas en la Constitución española. Se examina la normativa al respecto y se desglosa la naturaleza, estructura y funcionamiento de la Agencia Española de Protección de Datos, en la que se procede a describir todas las funciones que el nuevo Reglamento General de Protección de Datos otorgará a las Autoridades de control nacionales. A nivel autonómico también se profundiza en las Autoridades de control, intentando valorar la problemática de las competencias asumidas por cada una de ellas. Se analiza más pormenorizadamente el Consejo Andaluz de Protección de Datos. Concluye la investigación con un apartado que recoge las principales aportaciones de la autora, tanto desde la observación como desde las propuestas de cambio o mejora. Destaca entre las mismas la necesidad de potenciar por parte de los estados e instituciones una mayor cultura de protección de datos, la necesidad de una autoridad de control a nivel europeo jerárquicamente superior, la de definir los parámetros de la independencia de dichas autoridades con exigencias superiores a las actuales, la necesidad de una modificación constitucional en España que recoja el derecho a la protección de datos como derecho fundamental así como el reparto competencial, y en Andalucía el aprovechamiento de las instituciones existentes en lugar de la creación de nuevos organismos