1000 resultados para análisis de datos de aprendizaje
Resumo:
[spa]El estudio bibliométrico descriptivo que sigue presenta tendencias de investigación sobre el aprendizaje basado en problemas entre 1974 y 2009. Se sirve de la base de datos ERIC y trabaja con una muestra de 1007 documentos. Se analizan los registros a tenor de cuatro variables: el año de publicación o realización, la titulación, el área de conocimiento y la tipología de investigación. En cuanto a la producción científica, pueden diferenciarse tres fases: la primera, de 1974 a 1989, supone el inicio de las publicaciones y muestra escasa relevancia estadística; la segunda, de crecimiento, durante la década de los 90 del pasado siglo; y la última, de maduración, desde el año 2000 hasta el año 2009. La distribución de los registros por sectores de conocimiento destaca Ciencias de la Salud, Ciencias Sociales y Enseñanzas Técnicas. Las titulaciones en las que más ha proliferado el ABP son Medicina, Económicas, Empresariales, Pedagogía, Formación del Profesorado y el conjunto de las ingenierías.
Resumo:
[spa]El estudio bibliométrico descriptivo que sigue presenta tendencias de investigación sobre el aprendizaje basado en problemas entre 1974 y 2009. Se sirve de la base de datos ERIC y trabaja con una muestra de 1007 documentos. Se analizan los registros a tenor de cuatro variables: el año de publicación o realización, la titulación, el área de conocimiento y la tipología de investigación. En cuanto a la producción científica, pueden diferenciarse tres fases: la primera, de 1974 a 1989, supone el inicio de las publicaciones y muestra escasa relevancia estadística; la segunda, de crecimiento, durante la década de los 90 del pasado siglo; y la última, de maduración, desde el año 2000 hasta el año 2009. La distribución de los registros por sectores de conocimiento destaca Ciencias de la Salud, Ciencias Sociales y Enseñanzas Técnicas. Las titulaciones en las que más ha proliferado el ABP son Medicina, Económicas, Empresariales, Pedagogía, Formación del Profesorado y el conjunto de las ingenierías.
Resumo:
Memoria de máster (Universidad de Alicante, 2006). Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicación
Resumo:
En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
Este Proyecto Fin de Carrera, pertenece al área de 'Competencias profesionales' y tiene como objetivo el análisis de diversas experiencias de enseñanza-aprendizaje y de evaluación de competencias transversales, haciendo hincapié en la competencia de la comunicación escrita, dentro de la formación de currículos TIC. El análisis se centra en los planes de estudios del Grado en Ingeniería Informática de 10 universidades españolas representativas (públicas, privadas y a distancia) como representación de la "nueva" formación de currículos TIC en nuestra sociedad.
Resumo:
Este proyecto de final de carrera corresponde al área de inteligencia artificial y representa un caso de uso que pretende utilizar datos reales referentes a accidentes de tráfico (datos de accidentes, muertos, heridos, etc.) y analizarlas conjuntamente con datos que puedan tener una posible relación con los accidentes como el parque de vehículos, las temperaturas de la zona de los accidentes, etc. con la finalidad de poder obtener las posibles relaciones causa-efecto.
Resumo:
Este proyecto consiste en diseñar e implementar un sistema de información alojado en una base de datos Oracle, con el fin de dar respuesta al proyecto Big Data, cuyo objetivo es cruzar los datos de salud y los datos de actividad física de los ciudadanos europeos.
Resumo:
Capítol 22 del llibre 'Conceptos y técnicas en ecología fluvial' que es refereix a la importància del disseny experimental i de l'anàlisi estadística en la investigació ecològica
Resumo:
Analizar la metodología utilizada para construir significados a partir de datos educativos de naturaleza cualitativa, contrastar la aplicabilidad de la técnica de los grupos de discusión en la investigación educativa y sacar distintas estrategias de análisis de los datos procedentes de grupos de discusión. Explorar las perspectivas del profesorado de EGB acerca de la reforma educativa utilizando la técnica de los grupos de discusión. Se trabaja con la población de los profesores de EGB de los centros públicos de la provincia de Sevilla, de esta población se extraen dos muestras, una de seis grupos que mantendrían distintas posiciones acerca de la Reforma y otra muestra de 871 profesores a los que se enviará un cuestionario. Se hace un estudio previo de la población para caracterizar seis tipos de profesores. Para cada uno de ellos se construye un grupo de discusión en el que se habla sobre la reforma educativa. Los resultados del análisis de las discusiones de grupo sirven para construir un cuestionario que servirá para confirmar tales resultados. Desarrollado este proceso, se ponen en práctica vías alternativas para el análisis de los datos producidos mediante las discusiones de grupo, reflexionando sobre ellas. Grupos de discusión, cuestionario, revisión bibliográfica. Análisis factorial de correspondencias seguido de clasificación jerárquica ascendente. Análisis de contenido. Análisis cualitativo mediante ordenador (programa AQUAD), análisis lexicométrico de textos (programa SPAD.T). Escalamiento multidimensional no métrico. Las técnicas empleadas para el análisis de datos procedentes de grupos de discusión se han revelado adecuadas para conseguir diferentes aproximaciones al significado de un mismo conjunto de datos. Tales aproximaciones convergen en algunos aspectos y se complementan en otros, pero sin llegar a incurrir en contradicciones. La posición del profesorado ante la reforma educativa se define por el escepticismo, la desconfianza respecto a la Administración y la preocupación por las consecuencias de la aplicación de la reforma para los profesores. Los grupos de discusión resultan una técnica útil en la investigación educativa, existiendo una unidad de vías para llevar a cabo el análisis de los datos producidos. Por tanto, se recomienda su utilización. Parece necesario que la administración educativa incremente sus esfuerzos para incorporar al profesorado al proceso de cambio, despejar sus dudas y clarificar el nudo en el que se verán afectados.
Resumo:
Resumen de los autores
Resumo:
Resumen basado en el de la revista
Resumo:
Evaluar una serie de programas destinados a enseñar explícitamente a los niños a descubrir y atender a la estructura fonológica de su lenguaje. Determinar si es posible incrementar el desarrollo de habilidades metalingüísticas de los niños prelectores a través de programas y si éstos favorecerán el posterior aprendizaje de la lectura y la escritura. Establecer si es posible determinar una secuencia de aprendizaje en función de la efectividad de las distintas tareas metalingüísticas que integran estos programas. La muestra se compone inicialmente de 62 niños y niñas de Educación Infantil procedentes de dos Colegios públicos de la ciudad de Salamanca. Tras la aplicación de una serie de pruebas, se establecen cuatro criterios de eliminación de sujetos: no disponer de resultados en todas las pruebas, tener menos de 5 años, leer y puntuar muy alto o muy bajo en la mayoría de las pruebas. La muestra definitiva quedó integrada por 48 sujetos con una edad media de 5,3 años, distribuidos aleatoriamente en cuatro grupos correspondientes a los diferentes programas: grupo de omisión, grupo de identificación, grupo de rima y grupo de control. Se utiliza un diseño experimental de cuatro grupos (tres tratamientos y un grupo control) con pretest y postest. Las variables objeto de medida en el pretest y el postest son Habilidad Lectora, Escritura, Conocimiento de las letras, Habilidades metalingüísticas e Inteligencia. Los programas aplicados entre ambas medidas estaban todos ellos encaminados al desarrollo de competencias metalingüísticas en los niños y fueron diseñados con una estructura semejante; únicamente se diferencian en la tarea o actividad a realizar por los niños: omitir un fonema, identificar fonemas y reconocer una rima.. La inteligencia fue valorada mediante la Escala de Inteligencia de Wechsler para Preescolar y Primaria (WPPSI). Para el resto de las variables, se construyeron y adaptaron instrumentos específicos: A) Habilidad lectora, consta de cuatro subpruebas: lectura de palabras regulares, de palabras excepcionales, de pseudopalabras y lectura-comprensión. B) Registro de escritura, consiste en dos hojas de registro, una para dictado y otra para lectura espontánea. C) Conocimiento de las letras, consiste en una hoja con letras mayúsculas y minúsculas y una hoja de registro. D) Habilidad metalingüística, consta de seis subpruebas: reconocimiento de la rima, identificación de fonemas, adición de sílabas, adición de fonemas, omisión de sílabas y omisión de fonemas. Se llevan a cabo pruebas de diferencia de medias entre las puntuaciones pretest y postest, además de análisis descriptivos (distribución de frecuencias, porcentajes, etc.).. De las diversas tareas analizadas, la identificación y la omisión de fonemas tienen una mayor incidencia en el desarrollo de habilidades fonológicas. La Enseñanza destinada a desarrollar habilidades de análisis de palabra es igual de efectiva si se utilizan sonidos iniciales, medios o finales. La habilidad de análisis fonológico se generaliza, de modo que no es necesario trabajar todos y cada uno de los fonemas. Es posible establecer una secuencia de aprendizaje, desde las tareas más fáciles a las más complejas: rima, adición de sílabas, identificación de fonemas, omisión de sílabas, adición de fonemas y omisión de fonemas. Se pone de manifiesto que es posible desarrollar habilidades metalingüísticas en los niños prelectores. Además, tales habilidades parecen facilitar el aprendizaje de la lectura y de la escritura. Entre estas habilidades, la conciencia fonológica es una de las más importantes. Por ello, es preciso desarrollar en los niños este tipo de habilidad a través de una Enseñanza explícita que incluya tareas que persigan este fin..
Resumo:
Resumen tomado de la publicación