12 resultados para Métodos de aprendizaje

em Universidad Politécnica de Madrid


Relevância:

70.00% 70.00%

Publicador:

Resumo:

En los últimos años la industria software demanda, cada vez más, ingenieros que posean conocimientos y experiencia en la aplicación de metodologías ágiles. Los principios y valores en los que se basan las metodologías ágiles fomentan la adquisición de competencias como la capacidad de organización, el trabajo en equipo, la comunicación, o el liderazgo, entre otras, denominadas en el marco del Espacio Europeo de Educación Superior (EEES) como competencias generales o transversales. Ambas razones justifican la adopción de las metodologías ágiles como métodos de aprendizaje activos, es decir, la implantación de metodologías ágiles durante el ciclo formativo del ingeniero software. Esta apuesta se ha materializado en el proyecto de innovación educativa Agile Learning - Aprendizaje Ágil, cuyos primeros pasos, resultados y lecciones aprendidas se presentan en este artículo.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

La contribución de este artículo es el uso de métodos de aprendizaje automático en la arquitectura realizada dentro del proyecto RECLAMO en trabajos previos. La arquitectura se basa en un AIRS (sistema de respuestas a intrusiones automático) que infiere la respuesta más apropiada a un ataque, teniendo en cuenta el tipo de ataque, la información de contexto del sistema y la red, y la reputación del IDS que ha reportado la alerta. También, es imprescindible conocer el ratio de éxito y fracaso de las respuestas lanzadas ante un ataque, de tal manera que, además de tener un sistema adaptativo, se consiga la capacidad de autoaprendizaje. En este ámbito es donde las redes neuronales entran en juego, aportando la clasificación de éxito/fracaso de las respuestas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La minería de datos es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de datos. La minería de datos busca generar información similar a la que podría producir un experto humano. Además es el proceso de descubrir conocimientos interesantes, como patrones, asociaciones, cambios, anomalías y estructuras significativas a partir de grandes cantidades de datos almacenadas en bases de datos, data warehouses o cualquier otro medio de almacenamiento de información. El aprendizaje automático o aprendizaje de máquinas es una rama de la Inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. La minería de datos utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. En los últimos años se han aplicado las técnicas de clasificación y aprendizaje automático en un número elevado de ámbitos como el sanitario, comercial o de seguridad. Un ejemplo muy actual es la detección de comportamientos y transacciones fraudulentas en bancos. Una aplicación de interés es el uso de las técnicas desarrolladas para la detección de comportamientos fraudulentos en la identificación de usuarios existentes en el interior de entornos inteligentes sin necesidad de realizar un proceso de autenticación. Para comprobar que estas técnicas son efectivas durante la fase de análisis de una determinada solución, es necesario crear una plataforma que de soporte al desarrollo, validación y evaluación de algoritmos de aprendizaje y clasificación en los entornos de aplicación bajo estudio. El proyecto planteado está definido para la creación de una plataforma que permita evaluar algoritmos de aprendizaje automático como mecanismos de identificación en espacios inteligentes. Se estudiarán tanto los algoritmos propios de este tipo de técnicas como las plataformas actuales existentes para definir un conjunto de requisitos específicos de la plataforma a desarrollar. Tras el análisis se desarrollará parcialmente la plataforma. Tras el desarrollo se validará con pruebas de concepto y finalmente se verificará en un entorno de investigación a definir. ABSTRACT. The data mining is a field of the sciences of the computation referred to the process that it tries to discover patterns in big volumes of information. The data mining seeks to generate information similar to the one that a human expert might produce. In addition it is the process of discovering interesting knowledge, as patterns, associations, changes, abnormalities and significant structures from big quantities of information stored in databases, data warehouses or any other way of storage of information. The machine learning is a branch of the artificial Intelligence which aim is to develop technologies that they allow the computers to learn. More specifically, it is a question of creating programs capable of generalizing behaviors from not structured information supplied in the form of examples. The data mining uses methods of machine learning to discover and to enumerate present patterns in the information. In the last years there have been applied classification and machine learning techniques in a high number of areas such as healthcare, commercial or security. A very current example is the detection of behaviors and fraudulent transactions in banks. An application of interest is the use of the techniques developed for the detection of fraudulent behaviors in the identification of existing Users inside intelligent environments without need to realize a process of authentication. To verify these techniques are effective during the phase of analysis of a certain solution, it is necessary to create a platform that support the development, validation and evaluation of algorithms of learning and classification in the environments of application under study. The project proposed is defined for the creation of a platform that allows evaluating algorithms of machine learning as mechanisms of identification in intelligent spaces. There will be studied both the own algorithms of this type of technologies and the current existing platforms to define a set of specific requirements of the platform to develop. After the analysis the platform will develop partially. After the development it will be validated by prove of concept and finally verified in an environment of investigation that would be define.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El aprendizaje automático y la cienciometría son las disciplinas científicas que se tratan en esta tesis. El aprendizaje automático trata sobre la construcción y el estudio de algoritmos que puedan aprender a partir de datos, mientras que la cienciometría se ocupa principalmente del análisis de la ciencia desde una perspectiva cuantitativa. Hoy en día, los avances en el aprendizaje automático proporcionan las herramientas matemáticas y estadísticas para trabajar correctamente con la gran cantidad de datos cienciométricos almacenados en bases de datos bibliográficas. En este contexto, el uso de nuevos métodos de aprendizaje automático en aplicaciones de cienciometría es el foco de atención de esta tesis doctoral. Esta tesis propone nuevas contribuciones en el aprendizaje automático que podrían arrojar luz sobre el área de la cienciometría. Estas contribuciones están divididas en tres partes: Varios modelos supervisados (in)sensibles al coste son aprendidos para predecir el éxito científico de los artículos y los investigadores. Los modelos sensibles al coste no están interesados en maximizar la precisión de clasificación, sino en la minimización del coste total esperado derivado de los errores ocasionados. En este contexto, los editores de revistas científicas podrían disponer de una herramienta capaz de predecir el número de citas de un artículo en el fututo antes de ser publicado, mientras que los comités de promoción podrían predecir el incremento anual del índice h de los investigadores en los primeros años. Estos modelos predictivos podrían allanar el camino hacia nuevos sistemas de evaluación. Varios modelos gráficos probabilísticos son aprendidos para explotar y descubrir nuevas relaciones entre el gran número de índices bibliométricos existentes. En este contexto, la comunidad científica podría medir cómo algunos índices influyen en otros en términos probabilísticos y realizar propagación de la evidencia e inferencia abductiva para responder a preguntas bibliométricas. Además, la comunidad científica podría descubrir qué índices bibliométricos tienen mayor poder predictivo. Este es un problema de regresión multi-respuesta en el que el papel de cada variable, predictiva o respuesta, es desconocido de antemano. Los índices resultantes podrían ser muy útiles para la predicción, es decir, cuando se conocen sus valores, el conocimiento de cualquier valor no proporciona información sobre la predicción de otros índices bibliométricos. Un estudio bibliométrico sobre la investigación española en informática ha sido realizado bajo la cultura de publicar o morir. Este estudio se basa en una metodología de análisis de clusters que caracteriza la actividad en la investigación en términos de productividad, visibilidad, calidad, prestigio y colaboración internacional. Este estudio también analiza los efectos de la colaboración en la productividad y la visibilidad bajo diferentes circunstancias. ABSTRACT Machine learning and scientometrics are the scientific disciplines which are covered in this dissertation. Machine learning deals with the construction and study of algorithms that can learn from data, whereas scientometrics is mainly concerned with the analysis of science from a quantitative perspective. Nowadays, advances in machine learning provide the mathematical and statistical tools for properly working with the vast amount of scientometrics data stored in bibliographic databases. In this context, the use of novel machine learning methods in scientometrics applications is the focus of attention of this dissertation. This dissertation proposes new machine learning contributions which would shed light on the scientometrics area. These contributions are divided in three parts: Several supervised cost-(in)sensitive models are learned to predict the scientific success of articles and researchers. Cost-sensitive models are not interested in maximizing classification accuracy, but in minimizing the expected total cost of the error derived from mistakes in the classification process. In this context, publishers of scientific journals could have a tool capable of predicting the citation count of an article in the future before it is published, whereas promotion committees could predict the annual increase of the h-index of researchers within the first few years. These predictive models would pave the way for new assessment systems. Several probabilistic graphical models are learned to exploit and discover new relationships among the vast number of existing bibliometric indices. In this context, scientific community could measure how some indices influence others in probabilistic terms and perform evidence propagation and abduction inference for answering bibliometric questions. Also, scientific community could uncover which bibliometric indices have a higher predictive power. This is a multi-output regression problem where the role of each variable, predictive or response, is unknown beforehand. The resulting indices could be very useful for prediction purposes, that is, when their index values are known, knowledge of any index value provides no information on the prediction of other bibliometric indices. A scientometric study of the Spanish computer science research is performed under the publish-or-perish culture. This study is based on a cluster analysis methodology which characterizes the research activity in terms of productivity, visibility, quality, prestige and international collaboration. This study also analyzes the effects of collaboration on productivity and visibility under different circumstances.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se evalúan diferentes técnicas para la generación automática de reglas que se emplean en un método híbrido de categorización automática de texto. Este método combina un algoritmo de aprendizaje computacional con diferentes sistemas basados en reglas en cascada empleados para el filtrado y reordenación de los resultados proporcionados por dicho modelo base. Aquí se describe una implementación realizada mediante el algoritmo kNN y un lenguaje básico de reglas basado en listas de términos que aparecen en el texto a clasificar. Para la evaluación se utiliza el corpus de noticias Reuters-21578. Los resultados demuestran que los métodos de generación de reglas propuestos producen resultados muy próximos a los obtenidos con la aplicación de reglas generadas manualmente y que el sistema híbrido propuesto obtiene una precisión y cobertura comparables a la de los mejores métodos del estado del arte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se presenta un nuevo método híbrido de categorización automática de texto, que combina un algoritmo de aprendizaje computacional, que permite construir un modelo base de clasificación sin mucho esfuerzo a partir de un corpus etiquetado, con un sistema basado en reglas en cascada que se emplea para filtrar y reordenar los resultados de dicho modelo base. El modelo puede afinarse añadiendo reglas específicas para aquellas categorías difíciles que no se han entrenado de forma satisfactoria. Se describe una implementación realizada mediante el algoritmo kNN y un lenguaje básico de reglas basado en listas de términos que aparecen en el texto a clasificar. El sistema se ha evaluado en diferentes escenarios incluyendo el corpus de noticias Reuters-21578 para comparación con otros enfoques, y los modelos IPTC y EUROVOC. Los resultados demuestran que el sistema obtiene una precisión y cobertura comparables con las de los mejores métodos del estado del arte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tras una introducción a la necesidad de estudio en este tema, se muestran las distintas ramas que los investigadores van siguiendo en la actualidad, exponiéndose las diferencias entre el diagnóstico médico y el industrial, así como la necesidad de estructurar el conocimiento del problema diagnóstico. La aproximación a tiempo real como objetivo y la definición de los sistemas complejos caracterizan el problema propuesto» como método de resolución del problema del diagnóstico» bajo condiciones de tiempo limitado en la respuesta. Como resolución a este problema, se proponen una serie de procedimientos integrados que permiten dar una respuesta según el tiempo disponible y que se resumen en: - Procedimiento de construcción de un árbol de fallos a partir del conocimiento en forma de reglas. - Procedimientos de depuración estructural del árbol de fallos. - Nuevo procedimiento de construcción del conjunto de Conjuntos Mínimos» puerta a puerta del árbol. - Método de resolución de íncertidumbre en los Conjuntos Mínimos en base a parámetros de fiabilidad para el caso de tiempo suficiente. - Definición del concepto de Conjunto Virtual como procedimiento de resolución de tipo estructural del problema del diagnóstico. - Método de resolución de incertidumbre en Conjuntos Virtuales basado en parámetros de fiabilidad. Los métodos propuestos permiten, desde la detección de inconsistencias en el conocimiento, hasta la posibilidad de diagnóstico incompleto, pero seguro, cuando el tiempo es insuficiente, como caracterización del problema del diagnóstico en emergencias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La educación y los entornos educativos están en constante evolución. Tanto alumnos como educadores cambian de hábitos, de maneras de aprender, de gustos, de dispositivos que manejan y de aplicaciones que usan regularmente entre otras cosas. Todos estos cambios vienen acompañados y fomentados en gran medida por la evolución paralela que experimenta la tecnología, tanto software en los programas utilizados, como hardware en los dispositivos y capacidades de éstos. La educación debe también adaptarse a estos cambios, tanto personales como tecnológicos y sacar el mayor provecho de ellos. El uso de Sistemas de Gestión del Aprendizaje está muy extendido en todos los centros educativos. Estos sistemas poseen un gran número de características y funcionalidades que permiten desde la aplicación de un modelo didáctico totalmente tradicional en el que el profesor imparte un contenido y los alumnos lo reciben a uno totalmente innovador en el que ocurren procesos totalmente diferentes. Por otro lado, el potencial que ofrecen los recursos multimedia no ha sido completamente aprovechado en la educación y supone una gran oportunidad. Esta tesis doctoral propone un conjunto de métodos y herramientas para la creación y el uso de recursos multimedia en la educación. Para ello el desarrollo de esta tesis parte de la definición de un modelo didáctico social, colaborativo y centrado en el alumno que servirá de hilo conductor y que integrará los diferentes y métodos y herramientas estudiados y desarrollados. En un primer paso se identifican varias herramientas y métodos para el aula, tales son la grabación de clases, donde se crea y posteriormente se mejora un carrito portátil de grabación que da muy buen resultado, las herramientas de grabación de screencast y la videoconferencia. Estas herramientas además se integran en una plataforma colaborativa dando lugar a una arquitectura completa y escalable que permite la realización de dichas actividades y la interconexión sencilla con el Sistema de Gestión del Aprendizaje. A continuación y ya en un entorno totalmente online se desarrolla una nueva plataforma de e-learning llamada Virtual Science Hub (ViSH) que consta de cuatro funcionalidades principales, red social, videoconferencia, repositorio educativo y herramienta de autor. En esta plataforma se aplicaron técnicas de recomendación proactiva tanto de recursos educativos como de otros usuarios similares. Por último se validó el modelo educativo completo usando algunas de las herramientas identificadas y desarrolladas en dos escenarios diferentes con gran éxito. Finalmente, esta tesis discute las conclusiones obtenidas a lo largo de la extensa investigación llevada a cabo y que ha propiciado la consecución de una buena base teórica y práctica para la creación de herramientas y métodos para la generación y el uso de recursos multimedia en la educación. ABSTRACT Education and learning environments are constantly evolving. Students and educators change the things their habits, their ways of learning, the things they like or the devices and applications that they use regularly among other things. All these changes are accompanied and fostered by the parallel evolution that technology experiences, both in the software programs used as in the hardware and capabilities of these devices. Education must also adapt to these changes, both personal and technological and get the most out of them. Learning Management Systems are widely used in all educational centers. These systems have a large number of features and functionalities. They allow from the implementation of a traditional teaching model in which the teacher gives content and students receive it to one absolutely innovative teaching model where totally different processes occur. Furthermore, the potential of multimedia resources has not been fully exploited in education and can be a great opportunity. This thesis proposes a set of methods and tools for the creation and use of multimedia in education. The development of this thesis starts with the definition of a social, collaborative and learner-centered model, that serves as a common thread and that integrates different tools and methods studied and developed. In a first step, several tools and methods for the classroom are identified, such as recording, where a portable kit is created and then improved giving very good results, screencast recording and videoconferencing. These tools also are integrated into a collaborative platform resulting in a complete, scalable architecture that enables the execution of such activities and a simple interconnection with the Learning Management System. In an fully online environment a new e-learning platform called Virtual Science Hub (ViSH) is created. It consists of four main features that combine and complement each other, social network, videoconferencing, educational repository and authoring tool. In this platform proactive recommendation of both educational resources and similar users is applied. In a last step the entire educational model using some of the tools identified and developed is successfully validated in two different scenarios. Finally, this thesis discusses the findings obtained during the extensive research carried out and has led to the achievement of a good theoretical and practical basis for the development of tools and methods for the generation and use of multimedia in education.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La industria metalúrgica estatal venezolana ha vivido, desde sus inicios, procesos cíclicos de cambios y ajustes tecnológicos. Estos procesos no han sido objeto de sistematización que asegure el aprendizaje y apropiación del conocimiento. Este hecho, aún hoy, ha obstaculizado los procesos de apropiación y mejora de las tecnologías asociadas al sector. A partir del acompañamiento a iniciativas de participación de grupos de interés surgidos del seno de los trabajadores, se planteó esta investigación que tuvo como propósito la determinación de condiciones y relaciones para su participación directa en los procesos de mejora de las tecnologías existentes y el fortalecimiento del aprendizaje asociado. Se consideraron dos ámbitos Latinoamericanos donde hay manifestación de gestión colectiva y participación: Venezuela y Argentina. En el caso venezolano, el abordaje se realizó bajo la Investigación Acción Participativa (IAP), desarrollando la “investigación próxima”, como estrategia de acompañamiento, mediante “talleres de formación-investigación” y la sistematización de experiencias considerando la perspectiva y necesidades de los actores. En el caso argentino, el abordaje se realizó mediante visitas, entrevistas, reuniones y encuentros. Los talleres realizados en Venezuela, en un contexto de diálogo de saberes, facilitaron el surgimiento de herramientas prácticas para la sistematización de su propia experiencia (“Preguntas generadoras”, “Mi historia con la tecnología”, “Bitácora de aprendizaje”). El intercambio con los pares argentinos ha generado una red que plantea la posibilidad de construcción y nucleación conjunta de saberes y experiencia, tanto para los trabajadores como para los investigadores. Los casos estudiados referidos a las empresas recuperadas por los trabajadores (ERTs) argentinos evidencian un proceso de participación marcada por su autonomía en la gestión de la empresa, dadas las circunstancias que los llevó a asumirla para conservar sus puestos de trabajo. De estos casos emergieron categorías asociadas con elementos de gestión de un proceso técnico–tecnológico, como la participación en la planificación, concepción o diseño de la mejora. La participación en general está asociada al hecho asambleario, vinculado a las prácticas de toma de decisiones autogestionarias como expresión de una alta participación. La Asamblea, como máxima instancia de participación, y el Consejo de Administración son las formas de participación prevalecientes. En cuanto al aprendizaje, los trabajadores de las ERTs argentinas aportaron categorías de gran significación a los procesos de socialización del conocimiento: conocimiento colectivo y cooperación del conocimiento, rescate de los saberes y formación de trabajadores que tomen el relevo. Las categorías surgidas de las ERTs argentinas, los referentes teóricos y el interés de los trabajadores venezolanos fueron la base para la valoración tanto de su grado de participación en las mejoras a procesos tecnológicos emprendidas, como del aprendizaje asociado. Ésta valoración se realizó bajo una aproximación borrosa dado el carácter ambiguo de estas categorías que fueron trabajadas como conjuntos que se relacionan, más que como variables. Se encontró que la participación, se configura como un sub-conjunto del aprendizaje para contribuir a su fortalecimiento. Las condiciones y relaciones para fortalecer la participación en los asuntos tecnológicos surgieron a partir de la sistematización y síntesis de ambas experiencias (Venezuela y Argentina) conjugando una estructura que contempla la formación para la nucleación de colectivos de saberes (proyectos de mejora o innovaciones), las redes por afinidad, la sistematización de su propia experiencia técnica y los enlaces institucionales. Estos resultados dan cuenta de la integración de los intereses de las partes (trabajadores, investigadores, instituciones), mediante las estrategias de encuentro, de sistematización de los propios métodos y de conformación de los “colectivos de saberes”, la red de IAP en la industria (IAP Industrial) considerando la “deriva de la investigación”, bajo discursos práctico–teóricos propios, como posibilidad de posicionamiento de su participación en los asuntos tecnológicos de sus respectivas organizaciones, abriendo una oportunidad de ampliación de la experiencia en otros ámbitos y sectores. ABSTRACT Venezuelan's state owned steel industry has experienced since its earliest years, cycles of change and technological adjustments. These processes have not been systematized to ensure learning and knowledge in those organizations. This fact, even today, has hindered the processes of appropriation and improving the technologies associated with the sector. In order to support initiatives involving metalworker interest groups, this research was aimed at determining conditions and relations for their direct participation in process improvements to existing technologies and strengthening the associated learning. Two Latin American countries, Venezuela and Argentina, were considered on the base of their collective management and participation experiences. The Venezuelan approach was carried out under the Participatory Action Research (PAR) strategy, through the ‘proximal research’ as support strategy, by means of ‘workshops–research’ and systematization of experiences considering the perspective and needs of actors. Workshops were carried out in metallurgical enterprises from steel and aluminum at Guayana, Venezuela and its affiliates in the Central region. Those industries have been promoted collective management. The Argentine approach was carried out through visits, interviews, meetings and gatherings. The workshops held in Venezuela, in a dialogue of knowledge context, facilitated the emergence of tools for the systematization of their own experience (‘generating questions’, ‘My history with technology’, ‘Learning Log’). The relation with Argentine peers has generated a network that creates opportunities of knowledge and experience construction and its nucleation for both, workers and researchers. The cases studied relating to Argentine workers’ recuperated enterprises show a participatory process marked by autonomy in the management of the factory, given the circumstances that led them to take it in order to maintain their jobs. From these cases emerged categories associated with management aspects about technical-technology process, such as participation in planning, design or implementation of the improvement. Participation, in general, is associated with assemblies, joined to the practices of self-management decision-making as an expression of a high participation. The Cooperative General Assembly, as the highest instance of participation, and the Board of Directors are the prevalent forms of participation. In relation to learning, Argentine workers’ recuperated enterprises provided categories of great significance to the process of socialization of knowledge: collective knowledge and knowledge cooperation, recovery of knowledge and training workers for replacement. Based on categories arising from the Argentine experience, theoretical framework and the interest of the Venezuelan workers the assessment of both, their degree of participation on technical improvements and the associated technological learning were made considering a fuzzy approach, given the ambiguous nature of these categories that were worked as sets rather than variables. It was found that participation is configured as a subset of learning to contribute to its strengthening. The conditions and relations to strengthen participation in technology issues emerged from the systematization and synthesis of both experiences (Venezuela and Argentina) combining a structure which provides training for the nucleation of collectives of knowledge (improvement projects or innovations), affinity networks, systematization of their own expertise and institutional links. These results show the integration of the interests of stakeholders (workers, researchers, institutions) through strategies like meetings, systematization of their own methods, forming ‘collectives of technological knowledge’ and a participative action research network in this industry (Industrial PAR) considering the ‘research drift’, under their own practical-theoretical discourses positioned as a possibility of their participation in technological activities in their respective organizations, opening an opportunity for scaling to other areas and sectors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción: En el entrenamiento de los deportes de equipo, está generalizada la descripción de la periodización del entrenamiento en función de las capacidades físicas trabajadas en cada microciclo. Este proceso de planificación y programación tiene un fundamento científico y es necesario, pero no es incompatible con un registro y una programación de los contenidos tácticos a trabajar. Para ello, debe existir un modelo de juego basado en las características de los jugadores y un registro detallado de cada partido, en función de unos indicadores de rendimiento que permitan evaluar la asimilación de dicho modelo de juego. Objetivo: Realizar una revisión de la literatura más reciente acerca de planificación en fútbol y a partir de esta definir unas tareas para desarrollar un modelo de juego concreto, además de un método de registro de datos y de evaluación del proceso enseñanza-aprendizaje táctico-estratégico en el fútbol de alto rendimiento. Material y métodos: Mediante la diversa bibliografía, la información sobre el modelo de juego y los vídeos de partidos completos proporcionados por el cuerpo técnico del Club Deportivo Leganés; he desarrollado la propuesta de una metodología de entrenamiento, y unas tareas como base de la enseñanza-aprendizaje del modelo de juego Resultados: El resultado de este trabajo es una propuesta metodológica que puede ser adaptable a otros entrenadores, modelos de juego e incluso deportes, ya que es una herramienta flexible. Conclusiones: El registro detallado de un modelo de juego, de unas tareas para desarrollar cada uno de sus aspectos y su evaluación mediante unos indicadores de rendimiento diseñados por el entrenador, forman en conjunto una herramienta práctica para el desarrollo de dicho modelo de juego y por lo tanto aumentar el rendimiento del equipo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde los comienzos de la enseñanza, siempre se han buscado formas innovadoras para transmitir el conocimiento de profesor a alumno. Desde recursos materiales hasta sistemas de enseñanza complejos, todos juegan un papel esencial en el aprendizaje del alumno. Durante el siglo XVII comienzan a desarrollarse nuevas corrientes de enseñanza cuyo objetivo era el aprendizaje ameno del individuo. Hoy en día pueden utilizarse multitud de medios para desarrollar estos métodos pedagógicos, entre ellos, los juegos interactivos. Con el boom de la tecnología y el desarrollo de las tecnologías de la información, los tutores encuentran en los dispositivos electrónicos todo un apoyo para realizar esta tarea, lo cual viene acompañado de una revolución inminente en la enseñanza. El objetivo de este proyecto es la creación de un videojuego educativo que permita tanto aprender más fácilmente a los alumnos como evaluar los conocimientos adquiridos por éstos a los profesores. Se ha creado Ludomática, un videojuego de tipo juego de mesa donde los jugadores tendrán que utilizar sus conocimientos en determinados temas para ganar la partida. El videojuego puede ser configurado con distintas preguntas del tema que se desee y en tres niveles de dificultad. Además, cuenta con la posibilidad de configurar el número de jugadores, de preguntas y de puntuación máxima, con objeto de crear partidas más o menos largas. Ludomática se constituye como una herramienta educativa completa y personalizable, además de atractiva, mediante la cual los profesores pueden innovar su forma de enseñanza y los alumnos pueden aprender divirtiéndose---ABSTRACT---Since the beginning of teaching, professors have always looked for innovative ways to transmit knowledge from teacher to student. From material resources to teaching complex systems, they all play a vital role in student learning. The development of new forms of education aimed to create enjoyable ways to teach started during the XVII century. Nowadays, It’s easy to find multiple elements to develop this pedagogical methods, including interactive games. Because of the “tech boom” and the rise of the Information and Communication Technologies, teachers can have a lot of support in electronic devices to carry out this task, which comes with an inminent revolution of teaching. The objective of this project is to create an educational video game that allows not only learn much more easily for students, but also evaluate the knowledge acquired by these for teachers. Ludomática has been created as a board videogame where players have to use their knowledge in specific topics to win the game. The game can be configured with different questions of the topic desired and three difficulty levels. It also has the ability to set the number of players, questions and maximum score, in order to control the duration of the game. Ludomática constitutes a complete and customizable educational tool, also attractive, whereby teachers can innovate their teaching forms and students can learn while having fun.