1000 resultados para Inteligencia artificial : Mineracao
Resumo:
La enseñanza en inglés es uno de los retos a los que se está enfrentando actualmente la universidad española. La Universidad de Alicante ofrece a través de los grupos de Alto Rendimiento Académico (ARA) parte de la docencia de los estudios de grado en inglés. El objetivo principal de esta red es la de consolidar y ampliar la investigación realizada en metodologías de aprendizaje para grupos ARA en la materia de arquitectura de computadores. En consecuencia, se pretende ampliar los materiales docentes en inglés en relación con la enseñanza de asignaturas relacionadas con la materia en estos grupos de alto rendimiento. Estas asignaturas son impartidas por varios miembros de la red en diferentes cursos de los Grados de Ingeniería Informática y de Ingeniería en Sonido e Imagen en Telecomunicación. Como caso práctico, se ha continuado con la investigación en la asignatura Arquitectura de Computadores del Grado de Ingeniería Informática. Para ello, se han elaborado nuevos materiales para prácticas que permiten la participación activa y el trabajo en equipo. Cada uno de los materiales propuestos está diseñado dentro del marco metodológico implementado en la asignatura, relacionado con la consecución de objetivos y competencias, y con la evaluación de la misma.
Resumo:
Esta memoria corresponde al trabajo desarrollado durante el curso 2013-2014 por los componentes de la “Red de Investigación en Sistemas Inteligentes. Evaluación continua mediante controles utilizando Moodle”. Código de Red ICE: 3021. En la asignatura Sistemas Inteligentes del grado en Ingeniería Informática, durante el curso 2013-14, se planteó a los estudiantes un sistema de evaluación continua de la parte teórica consistente en la realización de controles on-line utilizando cuestionarios Moodle. En las normas de evaluación de la asignatura, los controles acumulaban toda la materia impartida hasta la fecha y su peso creciente de cara a la obtención de la nota final. Teníamos especial interés en determinar si el sistema resultaba estimulante para los estudiantes debido a considerar que este aspecto es fundamental en el proceso de aprendizaje. La memoria se organiza de la siguiente forma: se inicia analizando la viabilidad de la evaluación continua y su interés pedagógico en nuestro contexto, seguidamente se presenta la metodología empleada, las características de los cuestionarios Moodle, se aportan los estudios que nos han permitido validar nuestra propuesta, las conclusiones y las recomendaciones que permitirán mejorar los procesos y resultados en el futuro.
Resumo:
El término gamificación está de moda. Los gurús la sitúan como una tecnología emergente y disruptiva, que cambiará muchas de nuestras experiencias en campos tan alejados de los juegos como el empresarial, el marketing y la relación con los clientes. Y el entorno educativo no escapará a ello. En este artículo presentamos la experiencia de un grupo de profesores preocupados por la docencia, que llevamos años experimentando con los videojuegos y las experiencias lúdicas, y que de repente nos hemos encontrado con el término gamificación. Estas son las lecciones que hemos aprendido, que podemos enmarcar en el campo de la gamificación en educación, pero que derivan de una experiencia práctica, de un análisis desmenuzado y de una reflexión concienzuda. Pretendemos mostrar qué es lo realmente importante y qué puntos debemos tener en cuenta los profesores antes de lanzarnos al diseño gamificado de nuestra propuesta docente.
Resumo:
Inspirados por las estrategias de detección precoz aplicadas en medicina, proponemos el diseño y construcción de un sistema de predicción que permita detectar los problemas de aprendizaje de los estudiantes de forma temprana. Partimos de un sistema gamificado para el aprendizaje de Lógica Computacional, del que se recolectan masivamente datos de uso y, sobre todo, resultados de aprendizaje de los estudiantes en la resolución de problemas. Todos estos datos se analizan utilizando técnicas de Machine Learning que ofrecen, como resultado, una predicción del rendimiento de cada alumno. La información se presenta semanalmente en forma de un gráfico de progresión, de fácil interpretación pero con información muy valiosa. El sistema resultante tiene un alto grado de automatización, es progresivo, ofrece resultados desde el principio del curso con predicciones cada vez más precisas, utiliza resultados de aprendizaje y no solo datos de uso, permite evaluar y hacer predicciones sobre las competencias y habilidades adquiridas y contribuye a una evaluación realmente formativa. En definitiva, permite a los profesores guiar a los estudiantes en una mejora de su rendimiento desde etapas muy tempranas, pudiendo reconducir a tiempo los posibles fracasos y motivando a los estudiantes.
Resumo:
In this work, we propose the use of the neural gas (NG), a neural network that uses an unsupervised Competitive Hebbian Learning (CHL) rule, to develop a reverse engineering process. This is a simple and accurate method to reconstruct objects from point clouds obtained from multiple overlapping views using low-cost sensors. In contrast to other methods that may need several stages that include downsampling, noise filtering and many other tasks, the NG automatically obtains the 3D model of the scanned objects. To demonstrate the validity of our proposal we tested our method with several models and performed a study of the neural network parameterization computing the quality of representation and also comparing results with other neural methods like growing neural gas and Kohonen maps or classical methods like Voxel Grid. We also reconstructed models acquired by low cost sensors that can be used in virtual and augmented reality environments for redesign or manipulation purposes. Since the NG algorithm has a strong computational cost we propose its acceleration. We have redesigned and implemented the NG learning algorithm to fit it onto Graphics Processing Units using CUDA. A speed-up of 180× faster is obtained compared to the sequential CPU version.
Resumo:
The semantic localization problem in robotics consists in determining the place where a robot is located by means of semantic categories. The problem is usually addressed as a supervised classification process, where input data correspond to robot perceptions while classes to semantic categories, like kitchen or corridor. In this paper we propose a framework, implemented in the PCL library, which provides a set of valuable tools to easily develop and evaluate semantic localization systems. The implementation includes the generation of 3D global descriptors following a Bag-of-Words approach. This allows the generation of fixed-dimensionality descriptors from any type of keypoint detector and feature extractor combinations. The framework has been designed, structured and implemented to be easily extended with different keypoint detectors, feature extractors as well as classification models. The proposed framework has also been used to evaluate the performance of a set of already implemented descriptors, when used as input for a specific semantic localization system. The obtained results are discussed paying special attention to the internal parameters of the BoW descriptor generation process. Moreover, we also review the combination of some keypoint detectors with different 3D descriptor generation techniques.
Resumo:
The use of 3D data in mobile robotics applications provides valuable information about the robot’s environment. However usually the huge amount of 3D information is difficult to manage due to the fact that the robot storage system and computing capabilities are insufficient. Therefore, a data compression method is necessary to store and process this information while preserving as much information as possible. A few methods have been proposed to compress 3D information. Nevertheless, there does not exist a consistent public benchmark for comparing the results (compression level, distance reconstructed error, etc.) obtained with different methods. In this paper, we propose a dataset composed of a set of 3D point clouds with different structure and texture variability to evaluate the results obtained from 3D data compression methods. We also provide useful tools for comparing compression methods, using as a baseline the results obtained by existing relevant compression methods.
Resumo:
A new classification of microtidal sand and gravel beaches with very different morphologies is presented below. In 557 studied transects, 14 variables were used. Among the variables to be emphasized is the depth of the Posidonia oceanica. The classification was performed for 9 types of beaches: Type 1: Sand and gravel beaches, Type 2: Sand and gravel separated beaches, Type 3: Gravel and sand beaches, Type 4: Gravel and sand separated beaches, Type 5: Pure gravel beaches, Type 6: Open sand beaches, Type 7: Supported sand beaches, Type 8: Bisupported sand beaches and Type 9: Enclosed beaches. For the classification, several tools were used: discriminant analysis, neural networks and Support Vector Machines (SVM), the results were then compared. As there is no theory for deciding which is the most convenient neural network architecture to deal with a particular data set, an experimental study was performed with different numbers of neuron in the hidden layer. Finally, an architecture with 30 neurons was chosen. Different kernels were employed for SVM (Linear, Polynomial, Radial basis function and Sigmoid). The results obtained for the discriminant analysis were not as good as those obtained for the other two methods (ANN and SVM) which showed similar success.
Resumo:
The aim of this work is to improve students’ learning by designing a teaching model that seeks to increase student motivation to acquire new knowledge. To design the model, the methodology is based on the study of the students’ opinion on several aspects we think importantly affect the quality of teaching (such as the overcrowded classrooms, time intended for the subject or type of classroom where classes are taught), and on our experience when performing several experimental activities in the classroom (for instance, peer reviews and oral presentations). Besides the feedback from the students, it is essential to rely on the experience and reflections of lecturers who have been teaching the subject several years. This way we could detect several key aspects that, in our opinion, must be considered when designing a teaching proposal: motivation, assessment, progressiveness and autonomy. As a result we have obtained a teaching model based on instructional design as well as on the principles of fractal geometry, in the sense that different levels of abstraction for the various training activities are presented and the activities are self-similar, that is, they are decomposed again and again. At each level, an activity decomposes into a lower level tasks and their corresponding evaluation. With this model the immediate feedback and the student motivation are encouraged. We are convinced that a greater motivation will suppose an increase in the student’s working time and in their performance. Although the study has been done on a subject, the results are fully generalizable to other subjects.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
El título de este trabajo sugiere que su texto fue preparado para que pudiera servir de ayuda al profesor novel. De hecho puede ser útil a quien quiera que se dedique a la profesión docente. El fenómeno fundamental que tiene lugar en las aulas es la adquisición de conocimientos por parte del alumno. El verbo que denota esta actividad se representa con la palabra aprender. La contribución del profesor consiste en conseguir que se aprenda de una forma selectiva, con “gusto” y eficacia. Se han de aprender unas cosas y no otras, se ha disfrutar de lo que se hace y no se ha de perder tiempo. Aunque la única actividad realmente importante es el aprender de los alumnos, los que hablan del asunto, que son los que saben hablar, como profesores, pedagogos, administradores y políticos, casi siempre han examinado el proceso desde su óptica y la denominan enseñar. Así, al proceso que tiene lugar lo llaman enseñanza. Este punto de vista es tan acentuado que ni siquiera existe la palabra aprendanza y ya va siendo hora que alguien la invente. La palabra aprendizaje se usa cuando lo que se aprende es una acción como leer, escribir, correr, nadar, etc. En este trabajo el lector puede encontrar 70 consejos que pueden servir de ayuda al novel profesor en su labor de dirigir la aprendanza de sus alumnos, contando con un bagaje algo más amplio que la simple intuición. En el ejercicio de la docencia todos nos hemos encontrado en situaciones apuradas. Para salir de ellas hemos tenido que optar por utilizar métodos más allá del dominio de la materia. En este trabajo se ofrecen algunos ejemplos de estos métodos que pueden ser utilizados con ventaja. Hay más. Confío que figurarán en sucesivas ediciones. Cada lector tendrá que decidir cuales son los más adecuados a su situación. A lo largo de los 70 consejos existe un talante inspirador. Algo así como si los autores siguieran un meta-consejo que les guíara y se reflejara en todas partes, sin deletrearse en ninguna. Me voy a tomar la libertad de hacerlo yo, sin su permiso. Consejo 0.1 Enamórate de tu profesión. Es preciosa. No hay espectáculo más fabuloso que ver como la mente de un alumno se va abriendo como una flor en primavera y es una gozada saberse parte del proceso. José Miró Nicolau Palma de Mallorca, Junio de 2005.
Resumo:
In the current Information Age, data production and processing demands are ever increasing. This has motivated the appearance of large-scale distributed information. This phenomenon also applies to Pattern Recognition so that classic and common algorithms, such as the k-Nearest Neighbour, are unable to be used. To improve the efficiency of this classifier, Prototype Selection (PS) strategies can be used. Nevertheless, current PS algorithms were not designed to deal with distributed data, and their performance is therefore unknown under these conditions. This work is devoted to carrying out an experimental study on a simulated framework in which PS strategies can be compared under classical conditions as well as those expected in distributed scenarios. Our results report a general behaviour that is degraded as conditions approach to more realistic scenarios. However, our experiments also show that some methods are able to achieve a fairly similar performance to that of the non-distributed scenario. Thus, although there is a clear need for developing specific PS methodologies and algorithms for tackling these situations, those that reported a higher robustness against such conditions may be good candidates from which to start.
Resumo:
En esta memoria se describe el proyecto realizado para la evaluación de la implantación transversal del itinerario de Creación y Entretenimiento digital del cuarto curso del Grado en Ingeniería Multimedia de la Escuela Politécnica Superior, como continuación del planteamiento realizado en el proyecto del curso anterior de preparación, coordinación y seguimiento de las asignaturas del citado itinerario (identificador 3013). En el marco creado por los nuevos estudios dentro del EEES, el proyecto ha tenido como objetivos principales la preparación y coordinación de las asignaturas para el desarrollo de la metodología de Aprendizaje Basado en Proyectos (ABP), y la elaboración de las fichas de las asignaturas y el ajuste de recursos disponibles y laboratorios. A partir de la experiencia adquirida en la planificación de cursos previos, se han elaborado las guías docentes de las asignaturas ajustando las del curso anterior. También se presentan los resultados obtenidos en la segunda experiencia llevada a cabo en este curso, expresados en horas de dedicación al proyecto y en grado de satisfacción tanto del alumnado como del profesorado con la metodología ABP. Por último, se ha mantenido la página web informativa del itinerario creada el curso anterior, publicando noticias relacionadas y mejorando diversos aspectos.
Resumo:
El fomento de la calidad universitaria es una dimensión clave en el EEES que se basa en sistemas de garantía y mejora de la calidad internos en las universidades y en procedimientos llevados a cabo por agencias de evaluación y acreditación externas a ellas. Además, se resalta que cada vez es más necesario que estas acreditaciones de calidad nacionales se reconozcan fuera del propio país. En este contexto ha surgido la creación de sellos de calidad europeos que están enfocados a determinados sectores científico-técnicos o profesionales que tienen la ventaja de facilitar la comparación transfronteriza y ofrecer a universidades y egresados la posibilidad de demostrar la calidad de sus titulaciones en el ámbito europeo. En el caso de los Grados en Ingeniería Informática es el sello EURO-INF regulado por la European Quality Assurance Network for Informatics Education (EQANIE) el que garantiza que la calidad de los programas en informática se corresponde con los criterios europeos genéricos establecidos y que sus egresados adquieren las competencias definidas para este sello. En esta memoria se explica el trabajo realizado para el proceso de acreditación y solicitud del sello EURO-INF como un doble proceso aprovechando las sinergias entre ambos procedimientos.
Resumo:
En el curso docente 2010-2011 se inició la implantación del grado en Ingeniería Multimedia, título próximo a la Ingeniería Informática, pero enfocada a formar a profesionales capaces de gestionar proyectos Multimedia tanto en el ámbito del ocio como en el de la gestión de contenidos en redes de información. Esta implantación ha sido progresiva, de manera que cada año se iniciaba un curso nuevo de esta titulación, motivo por el cual este año, 2014-2015, es el primer año en el que el título está completamente implantado desde el inicio del curso. Esto nos ha llevado a plantearnos realizar un estudio sobre como están interconectadas las asignaturas en los distintos cursos. Este estudio ha tenido como objetivo averiguar los problemas o carencias de conocimientos que, por un lado tienen los alumnos en 2º curso, y por otro los que se pueden encontrar en 3º, así como establecer las posibles vías de solución a estos problemas, con la finalidad de mejorar el rendimiento en el aprendizaje de los alumnos. También se ha realizado un seguimiento sobre la evaluación de los alumnos realizada en las asignaturas de 2º para contrastar su adecuación al sistema de evaluación continua promovido por el Plan Bolonia.