182 resultados para Aprendizaje automático (Inteligencia artificial)
Resumo:
En esta memoria se describe el proyecto llevado a cabo para mejorar el seguimiento y la calidad de la docencia de las asignaturas del tercer curso del Grado en Ingeniería Informática. En concreto, en este proyecto, nos centramos en los mecanismos de evaluación y en su distribución a lo largo del curso, así como en los conceptos fundamentales que se asocian a las diferentes asignaturas que se imparten en tercer curso del Grado en Ingeniería Informática. Se realizaron diversas reuniones entre los coordinadores de las distintas asignaturas para poner en común problemas relacionados con la planificación de las asignaturas así como dudas sobre las actividades de evaluación. Las reuniones permitieron intercambiar diferentes planteamientos con los que se habían abordado la evaluación de las asignaturas participantes en la red y que posibilitaron resolver problemas comunes. De igual forma se plantearon cuestiones abiertas sobre la planificación y la evaluación de las asignaturas que se dirigieron desde la red a la coordinación de la titulación en la Escuela Politécnica Superior. Finalmente, también se discutieron diferentes propuestas junto con las redes de otros cursos de la titulación para abordarlas en futuras redes.
Resumo:
En esta memoria se describe el trabajo de la red docente para el seguimiento y control de calidad de las asignaturas del segundo curso del Grado en Ingeniería Informática impartido en la Escuela Politécnica Superior de la Universidad de Alicante. En esta edición, el trabajo de la red se ha centrado en el estudio de las necesidades formativas y los contenidos impartidos en las asignaturas. El resultado ha sido la creación de un grafo de dependencias entre asignaturas de segundo y primer curso (y de segundo curso entre sí), un mapa de necesidades formativas para acceder a las asignaturas de segundo curso y un mapa de los contenidos impartidos en éstas. Asimismo, se ha elaborado un calendario on-line de evaluaciones para el curso 2014-2015.
Resumo:
En esta memoria se describe el proyecto llevado para establecer los mecanismos y procedimientos para el seguimiento y control de calidad de las asignaturas del segundo curso del Grado en Ingeniería Multimedia, curso 2013/2014. En concreto, los mecanismos de control se centran en la planificación de las sesiones docentes y las actividades de evaluación llevadas a cabo en cada una de dichas asignaturas.
Resumo:
El trabajo de esta Red Docente se ha planteado como una continuación directa del realizado en el marco de la Red Docente 2733, del curso pasado. Continuamos con la elaboración del mapa conceptual, en el que ahora vamos a identificar solapamientos y lagunas en los conocimientos del egresado en el Grado en Ingeniería Informática. Por otro lado hemos simplificado y mejorado la gestión del calendario de evaluación, en el que se reflejan todas las pruebas evaluables que realizan los alumnos de la titulación, con el objetivo de mejorar la coordinación y evitar la excesiva concentración de pruebas en un reducido período de tiempo.
Resumo:
Durante el presente curso se ha constatado el asentamiento del tercer curso del grado en Ingeniería Multimedia, lo que se deriva de los informes de seguimiento de las asignaturas del curso que, en su gran mayoría, no han destacado problema alguno (con alguna excepción de la que se informa). Por otro lado, se ha llevado a cabo una iniciativa para contrastar si las dependencias entre las asignaturas de tercero con respecto a sus precedentes en el plan de estudios responden en realidad a los planteamientos que se hicieron durante el diseño del mismo, intentando descubrir carencias o inconsistencias en los contenidos. De esta manera, se han detectado dependencias que no son tales, dependencias que faltan y temarios de asignaturas básicas en los que, desde el punto de vista de las asignaturas de tercero faltan o sobran contenidos.
Resumo:
El objetivo de esta red de investigación se encuentra basado en el análisis de los resultados obtenidos en el Curso Académico 2012-13, correspondientes a las asignaturas de primer, segundo y tercer curso del Grado de Ingeniería Civil, de forma que se pueda proceder a la mejora de los procedimientos de trabajo del profesorado implicado en el desarrollo de las asignaturas de los cursos indicados, dentro del marco creado por la implantación del EEES. Para ello se han analizado las metodologías empleadas en las distintas asignaturas analizadas, los calendarios y plazos asignados a cada una de ellas, los procedimientos de evaluación y los resultados de los mismos. Al mismo tiempo, se ha reflexionado sobre la posibilidad crear una comisión que analizara las necesidades de conocimiento de las distintas asignaturas, adecuando el contenido de las ofertadas en los primeros cursos a las exigencias de los posteriores, y ofreciendo de esta forma al alumno una formación homogénea a lo largo Grado de Ingeniería Civil.
Resumo:
Tras la vorágine de las renovaciones y nuevos diseños de todas las titulaciones universitarias, llegan momentos de calma, de análisis y de reflexión. Los másteres caracterizarán a las universidades. Y aunque el Máster en Ingeniería Informática sigue unas fichas comunes, debe imbricarse con la universidad y el contexto social en el que se implanta. En este artículo se hace uso de los conceptos de las metodologías ágiles para describir el proceso de diseño e implantación del Máster en Ingeniería Informática de la Escuela Politécnica Superior de la Universidad de Alicante. Desde su implantación este Máster ha seguido un proceso de mejora continua, identificando, en cada curso, los posibles aspectos de mejora a partir de la información recogida durante los cursos anteriores y las propuestas para realizar dichas mejoras para los cursos siguientes. Se pretende en este artículo describir las experiencias, lecciones aprendidas y futuros pasos encaminados a afianzar este proceso de mejora continua del Máster en Ingeniería Informática.
Resumo:
Machine vision is an important subject in computer science and engineering degrees. For laboratory experimentation, it is desirable to have a complete and easy-to-use tool. In this work we present a Java library, oriented to teaching computer vision. We have designed and built the library from the scratch with enfasis on readability and understanding rather than on efficiency. However, the library can also be used for research purposes. JavaVis is an open source Java library, oriented to the teaching of Computer Vision. It consists of a framework with several features that meet its demands. It has been designed to be easy to use: the user does not have to deal with internal structures or graphical interface, and should the student need to add a new algorithm it can be done simply enough. Once we sketch the library, we focus on the experience the student gets using this library in several computer vision courses. Our main goal is to find out whether the students understand what they are doing, that is, find out how much the library helps the student in grasping the basic concepts of computer vision. In the last four years we have conducted surveys to assess how much the students have improved their skills by using this library.
Resumo:
In this work, we propose the use of the neural gas (NG), a neural network that uses an unsupervised Competitive Hebbian Learning (CHL) rule, to develop a reverse engineering process. This is a simple and accurate method to reconstruct objects from point clouds obtained from multiple overlapping views using low-cost sensors. In contrast to other methods that may need several stages that include downsampling, noise filtering and many other tasks, the NG automatically obtains the 3D model of the scanned objects. To demonstrate the validity of our proposal we tested our method with several models and performed a study of the neural network parameterization computing the quality of representation and also comparing results with other neural methods like growing neural gas and Kohonen maps or classical methods like Voxel Grid. We also reconstructed models acquired by low cost sensors that can be used in virtual and augmented reality environments for redesign or manipulation purposes. Since the NG algorithm has a strong computational cost we propose its acceleration. We have redesigned and implemented the NG learning algorithm to fit it onto Graphics Processing Units using CUDA. A speed-up of 180× faster is obtained compared to the sequential CPU version.
Resumo:
The semantic localization problem in robotics consists in determining the place where a robot is located by means of semantic categories. The problem is usually addressed as a supervised classification process, where input data correspond to robot perceptions while classes to semantic categories, like kitchen or corridor. In this paper we propose a framework, implemented in the PCL library, which provides a set of valuable tools to easily develop and evaluate semantic localization systems. The implementation includes the generation of 3D global descriptors following a Bag-of-Words approach. This allows the generation of fixed-dimensionality descriptors from any type of keypoint detector and feature extractor combinations. The framework has been designed, structured and implemented to be easily extended with different keypoint detectors, feature extractors as well as classification models. The proposed framework has also been used to evaluate the performance of a set of already implemented descriptors, when used as input for a specific semantic localization system. The obtained results are discussed paying special attention to the internal parameters of the BoW descriptor generation process. Moreover, we also review the combination of some keypoint detectors with different 3D descriptor generation techniques.
Resumo:
The use of 3D data in mobile robotics applications provides valuable information about the robot’s environment. However usually the huge amount of 3D information is difficult to manage due to the fact that the robot storage system and computing capabilities are insufficient. Therefore, a data compression method is necessary to store and process this information while preserving as much information as possible. A few methods have been proposed to compress 3D information. Nevertheless, there does not exist a consistent public benchmark for comparing the results (compression level, distance reconstructed error, etc.) obtained with different methods. In this paper, we propose a dataset composed of a set of 3D point clouds with different structure and texture variability to evaluate the results obtained from 3D data compression methods. We also provide useful tools for comparing compression methods, using as a baseline the results obtained by existing relevant compression methods.
Resumo:
A new classification of microtidal sand and gravel beaches with very different morphologies is presented below. In 557 studied transects, 14 variables were used. Among the variables to be emphasized is the depth of the Posidonia oceanica. The classification was performed for 9 types of beaches: Type 1: Sand and gravel beaches, Type 2: Sand and gravel separated beaches, Type 3: Gravel and sand beaches, Type 4: Gravel and sand separated beaches, Type 5: Pure gravel beaches, Type 6: Open sand beaches, Type 7: Supported sand beaches, Type 8: Bisupported sand beaches and Type 9: Enclosed beaches. For the classification, several tools were used: discriminant analysis, neural networks and Support Vector Machines (SVM), the results were then compared. As there is no theory for deciding which is the most convenient neural network architecture to deal with a particular data set, an experimental study was performed with different numbers of neuron in the hidden layer. Finally, an architecture with 30 neurons was chosen. Different kernels were employed for SVM (Linear, Polynomial, Radial basis function and Sigmoid). The results obtained for the discriminant analysis were not as good as those obtained for the other two methods (ANN and SVM) which showed similar success.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
In the current Information Age, data production and processing demands are ever increasing. This has motivated the appearance of large-scale distributed information. This phenomenon also applies to Pattern Recognition so that classic and common algorithms, such as the k-Nearest Neighbour, are unable to be used. To improve the efficiency of this classifier, Prototype Selection (PS) strategies can be used. Nevertheless, current PS algorithms were not designed to deal with distributed data, and their performance is therefore unknown under these conditions. This work is devoted to carrying out an experimental study on a simulated framework in which PS strategies can be compared under classical conditions as well as those expected in distributed scenarios. Our results report a general behaviour that is degraded as conditions approach to more realistic scenarios. However, our experiments also show that some methods are able to achieve a fairly similar performance to that of the non-distributed scenario. Thus, although there is a clear need for developing specific PS methodologies and algorithms for tackling these situations, those that reported a higher robustness against such conditions may be good candidates from which to start.
Resumo:
Durante el presente curso se han llevado a cabo las tareas para la evaluación de la implantación del grado en Ingeniería Multimedia en el marco de los nuevos estudios dentro del EEES, lo cual implica un trabajo extenso de análisis y recopilación del tratamiento concreto que se está dando a la adquisición por parte del alumnado de las diferentes competencias planteadas para cada asignatura en su ficha correspondiente y en la memoria para la solicitud de la verificación del título. Esto ha permitido tener una visión global de cuáles son los medios que se ponen para evaluar dichas competencias y también, desde un punto de vista más cercano, qué calendario de evaluación “ve” el alumno. En esta memoria nos hemos centrado en los aspectos relacionados con el curso tercero del grado.