25 resultados para lms


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente Proyecto de Fin de Carrera supone el propósito conjunto de los alumnos Álvaro Morillas y Fernando Sáez, y del profesor Vladimir Ulin, de desarrollar una unidad didáctica sobre el programa de simulación para ingeniería Virtual.Lab. La versión sobre la que se ha trabajado para realizar este texto es la 11, publicada en agosto de 2012. Virtual.Lab, del fabricante belga LMS International, es una plataforma software de ingeniería asistida por ordenador, que agrupa en una misma aplicación varias herramientas complementarias en el diseño de un producto, desde su definición geométrica a los análisis de durabilidad, ruido u optimización. No obstante, de entre todas las posibles simulaciones que nos permite el programa, en este proyecto sólo se tratan las que están relacionadas con la acústica. Cabe resaltar que gran parte de los conceptos manejados en Virtual.Lab son compatibles con el programa CATIA V5, ya que ambos programas vienen instalados y funcionan conjuntamente. Por eso, el lector de este proyecto podrá transportar sus conocimientos al que es uno de los programas estándar en las industrias aeronáutica, naval y automovilística, entre otras. Antes de este proyecto, otros alumnos de la escuela también realizaron proyectos de fin de carrera en el campo de la simulación computarizada en acústica. Una característica común a estos trabajos es que era necesario hacer uso de distintos programas para cada una de las etapas de simulación (como por ejemplo, ANSYS para el modelado y estudio de la vibración y SYSNOISE para las simulaciones acústicas, además de otros programas auxiliares para las traducciones de formato). Con Virtual.Lab desaparece esta necesidad y el tiempo empleado se reduce. Debido a que las soluciones por ordenador están ganando cada vez más importancia en la industria actual, los responsables de este proyecto consideran la necesidad de formación de profesionales en esta rama. Para responder a la demanda empresarial de trabajadores cualificados, se espera que en los próximos años los planes de estudio contengan más cursos en esta materia. Por tanto la intención de los autores es que este material sea de utilidad para el aprendizaje y docencia de estas asignaturas en cursos sucesivos. Por todo esto, se justifica la relevancia de este PFC como manual para introducir a los alumnos interesados en iniciarse en un sistema actual, de uso extendido en otras universidades tecnológicas europeas, y con buenas perspectivas de futuro. En este proyecto se incluyen varios ejemplos ejecutables desde el programa, así como vídeos explicativos que ayudan a mostrar gráficamente los procesos de simulación. Estos archivos se pueden encontrar en el CD adjunto. Abstract This final thesis is a joint project made by the students Álvaro Morillas and Fernando Sáez, and the professor Vladimir Ulin. The nature of the joint regards the writing of a didactic unit on Virtual.Lab, the simulation software. The software version used in this text is the number 11, released in August 2012. Virtual.Lab, from the Belgian developer LMS International, is a computer-aided engineering software which is used for several related tasks in this field: product design, durability simulation, optimization, etc. However, this project is focused on the acoustical capabilities. It is worthy to highlight that most procedures explained in this text can be used in the software CATIA V5 as well. Both tools come installed together and may be used at the same time. Therefore, the reader of this project will be able to use the acquired knowledge in one of the most relevant softwares for the aerospace, marine and automotive engineering. Previously to the development of this project, this School has conducted projects on this field. These projects regarded the use of ANSYS for modeling and meshing stages as well as the use of SYSNOISE for the final acoustic analysis. Since both systems use different file formats, a third-party translation software was required. This thesis fulfill this pending necessity with Virtual.Lab; the translation software procedure is not necessary anymore and simulations can be done in a more flexible, fast way. Since companies have an increasing usage of numerical methods in the development of their products and services, the authors think that it is important to develop the appropriate method to instruct new professionals in the field. Thus, the aim of this project is to help teachers and students in their process of learning the use of this leading software in acoustical simulations. For all the reasons mentioned above, we consider that this project is relevant for the School and the educational community. Aiming to achieve this objective the author offers example files and video demonstrations with guidance in the CD that accompanies this material. This facilitates the comprehension of the practical tasks and guides the prospect users of the software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This letter describes the procedure to manufacture high-performance surface acoustic wave (SAW) resonators on AlN/diamond heterostructures working at frequencies beyond 10 GHz. In the design of SAW devices on AlN/diamond systems, the thickness of the piezoelectric layer is a key parameter. The influence of the film thickness on the SAW device response has been studied. Optimized thin films combined with advanced e-beam lithographic techniques have allowed the fabrication of one-port SAW resonators with finger width and pitch of 200 nm operating in the 10–14 GHz range with up to 36 dB out-of-band rejection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present an approach to adapt dynamically the language models (LMs) used by a speech recognizer that is part of a spoken dialogue system. We have developed a grammar generation strategy that automatically adapts the LMs using the semantic information that the user provides (represented as dialogue concepts), together with the information regarding the intentions of the speaker (inferred by the dialogue manager, and represented as dialogue goals). We carry out the adaptation as a linear interpolation between a background LM, and one or more of the LMs associated to the dialogue elements (concepts or goals) addressed by the user. The interpolation weights between those models are automatically estimated on each dialogue turn, using measures such as the posterior probabilities of concepts and goals, estimated as part of the inference procedure to determine the actions to be carried out. We propose two approaches to handle the LMs related to concepts and goals. Whereas in the first one we estimate a LM for each one of them, in the second one we apply several clustering strategies to group together those elements that share some common properties, and estimate a LM for each cluster. Our evaluation shows how the system can estimate a dynamic model adapted to each dialogue turn, which helps to improve the performance of the speech recognition (up to a 14.82% of relative improvement), which leads to an improvement in both the language understanding and the dialogue management tasks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance tecnológico está incorporando nuevas herramientas de aprendizaje para complementar el estudio y realizar prácticas de autoevaluación de valor formativo, ya que mediante el ejercicio de evaluación el estudiante puede reflexionar sobre su progreso y dirigir mejor su esfuerzo en el estudio. En este marco la plataforma SIETTE es un sistema web que permite la creación y mantenimiento de bancos de preguntas, y realización de tests, que implementa la Teoría Clásica de Test (CTT), Teoría de Respuesta al Ítem (TRI), permite realizar Tests Adaptativos Informatizados (TAI), y puede usarse como herramienta para el aprendizaje colaborativo. Siette puede usarse como módulo de evaluación de un Sistema Tutor Inteligente (STI) o conectado a una Plataforma de Teleeducación (LMS) como Moodle. Siette implementa muchas otras opciones para la realización de prácticas de reconocimiento, repaso, y evaluación. Esta comunicación presenta los resultados de varios años de trabajo con esta herramienta, las diversas experiencias de formación y evaluación de conocimientos sobre Botánica Forestal. Se han definido más de 2500 preguntas, la mayoría basadas en imágenes y realizado mas de 4300 sesiones de evaluación en la Escuela Universitaria de Ingeniería Técnica Forestal de la Universidad Politécnica de Madrid en colaboración con la Universidad de Málaga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudio presenta una comparativa entre un LIDAR modelo LMS-111 (Sick Ltd.) y una cámara de profundidad de uso doméstico: Kinect (Microsoft Corporation), orientada a determinar las condiciones de uso de uno y otro sensor, así como sus ventajas e inconvenientes cuando son empleados en condiciones de campo, en una explotación agrícola. Para ello se realizaron diversos ensayos en una parcela experimental del CSIC-CAR de Arganda del Rey, España. Para los ensayos ambos sensores fueron instalados en un tractor operado remotamente diseñado y construido en el marco del proyecto europeo RHEA. Dicho tractor realizó dos recorridos diferentes: el primero se efectuó en paralelo a un muro y el segundo paralelo a una hilera de olivos. El primer ensayo se realizó con el propósito de cuantificar la uniformidad de las mediciones de ambos sensores y el segundo para validar los resultados en un cultivo real. Los recorridos se realizaron empleando cuatro marchas diferentes, con el objetivo de determinar si los diferentes regímenes de operación del motor influyen sobre la precisión de los sensores. Los resultados muestran que el LIDAR posee un mayor alcance máximo de medición, pero una resolución menor frente a Kinect, muestran además que el LIDAR puede ser operado a cualquier hora del día y condición meteorológica, mientras que Kinect, no puede operar en exteriores, salvo en horas del día con baja intensidad lumínica. Por otra parte la gran desventaja del LIDAR es su coste, 30 veces más alto que Kinect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Carrera (PFC) es la obtención de un modelo tridimensional de “La Puerta de la Latina”, ubicada en el aparcamiento delantero de la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid. El levantamiento se realiza con el equipo láser escáner terrestre Riegl LMS-Z420i. Tras la toma de datos se efectuará el tratamiento de la nube de puntos y se obtendrá una “imagen realista” del modelo, entendiendo por “imagen realista”una representación final en la que, partiendo del modelo digital triangulado, se realiza una asignación de texturas a partir de imágenes obtenidas in situ. Este proyecto pretende ser un ensayo de las posibilidades de esta tecnología en el proceso de la representación tridimensional de edificios de interés arquitectónico e histórico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este proyecto es la modelización tridimensional de superficies rocosas de litología de areniscas triásicas, en concreto unas manifestaciones rupestres que podrían corresponder a un yacimiento celta. Uno de los motivos tenidos en cuenta a la hora de elegir este emplazamiento es generar la representación de un lugar por descubrir, con interés arqueológico y geológico, y que pueda ayudar a ampliar el patrimonio cultural de la zona. El motivo por el que se eligió la metodología láser escáner, es la capacidad que tienen estos equipos de analizar sobre la roca patrones geométricos y detalles morfológicos que, a simple vista, pasan desapercibidos. Toda la región está documentada como zona con numerosas manifestaciones de civilizaciones celtíberas y romanas, con emplazamientos militares, castros, necrópolis…, lo cual es un contexto a tener en cuenta a la hora de la adscripción de datación del yacimiento encontrado. Además, se sabe que el litoral del mar de Tethys llegaba en el Triásico hasta ese lugar, información que será de interés más adelante para corroborar una de las manifestaciones encontradas, adicionales al posible yacimiento celta anteriormente mencionado. La placa rocosa en la que se centrará el estudio de la modelización 3D abarca aproximadamente 5x5 metros. El equipo que se ha utilizado para el levantamiento es un láser escáner Riegl LMS-Z420i con una precisión teórica de 10 mm, y que cuenta con cámara Canon EOS 20D calibrada. El software utilizado ha sido el programa propio del láser escáner, Riscan Pro, para un procesamiento inicial, y el programa Real Works, para completar el trabajo de modelización y análisis objeto del presente Proyecto Fin de Carrera (PFC). Como parte del proyecto, se describen los pasos del procesamiento con dichos programas, para agilizar el trabajo de futuros profesionales que utilicen este proyecto como guía. Al final, como resultado del tratamiento de los datos obtenidos, se obtiene un modelo tridimensional de la placa rocosa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The graphical user interface (GUI) are all graphic elements that help to communicate with a system. The design of a GUI allow to land the central idea of a draft information technology. Today technology has become one of the largest and most useful tools to automate and facilitate processes for that reason fit into any kind of productive sectors, for example, in the health sector. The CAD systems (Systems Computer Aided Diagnosis) are the type of technology used in the health sector, in order to automate online modular learning environment with a fast placed in service. In the present paper the use of a Learning Management Systems (LMS) as continuous education tool is proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivimos en una sociedad en la que la información ha adquirido una vital importancia. El uso de Internet y el desarrollo de nuevos sistemas de la información han generado un ferviente interés tanto de empresas como de instituciones en la búsqueda de nuevos patrones que les proporcione la clave del éxito. La Analítica de Negocio reúne un conjunto de herramientas, estrategias y técnicas orientadas a la explotación de la información con el objetivo de crear conocimiento útil dentro de un marco de trabajo y facilitar la optimización de los recursos tanto de empresas como de instituciones. El presente proyecto se enmarca en lo que se conoce como Gestión Educativa. Se aplicará una arquitectura y modelo de trabajo similar a lo que se ha venido haciendo en los últimos años en el entorno empresarial con la Inteligencia de Negocio. Con esta variante, se pretende mejorar la calidad de la enseñanza, agilizar las decisiones dentro de la institución académica, fortalecer las capacidades del cuerpo docente y en definitiva favorecer el aprendizaje del alumnado. Para lograr el objetivo se ha decidido seguir las etapas del Knowledge Discovery in Databases (KDD), una de las metodologías más conocidas dentro de la Inteligencia de Negocio, que describe el procedimiento que va desde la selección de la información y su carga en sistemas de almacenamiento, hasta la aplicación de técnicas de minería de datos para la obtención nuevo conocimiento. Los estudios se realizan a partir de la información de la activad de los usuarios dentro la plataforma de Tele-Enseñanza de la Universidad Politécnica de Madrid (Moodle). Se desarrollan trabajos de extracción y preprocesado de la base de datos en crudo y se aplican técnicas de minería de datos. En la aplicación de técnicas de minería de datos, uno de los factores más importantes a tener en cuenta es el tipo de información que se va a tratar. Por este motivo, se trabaja con la Minería de Datos Educativa, en inglés, Educational Data Mining (EDM) que consiste en la aplicación de técnicas de minería optimizadas para la información que se genera en entornos educativos. Dentro de las posibilidades que ofrece el EDM, se ha decidido centrar los estudios en lo que se conoce como analítica predictiva. El objetivo fundamental es conocer la influencia que tienen las interacciones alumno-plataforma en las calificaciones finales y descubrir nuevas reglas que describan comportamientos que faciliten al profesorado discriminar si un estudiante va a aprobar o suspender la asignatura, de tal forma que se puedan tomar medidas que mejoren su rendimiento. Toda la información tratada en el presente proyecto ha sido previamente anonimizada para evitar cualquier tipo de intromisión que atente contra la privacidad de los elementos participantes en el estudio. ABSTRACT. We live in a society dominated by data. The use of the Internet accompanied by developments in information systems has generated a sustained interest among companies and institutions to discover new patterns to succeed in their business ventures. Business Analytics (BA) combines tools, strategies and techniques focused on exploiting the available information, to optimize resources and create useful insight. The current project is framed under Educational Management. A Business Intelligence (BI) architecture and business models taught up to date will be applied with the aim to accelerate the decision-making in academic institutions, strengthen teacher´s skills and ultimately improve the quality of teaching and learning. The best way to achieve this is to follow the Knowledge Discovery in Databases (KDD), one of the best-known methodologies in B.I. This process describes data preparation, selection, and cleansing through to the application of purely Data Mining Techniques in order to incorporate prior knowledge on data sets and interpret accurate solutions from the observed results. The studies will be performed using the information extracted from the Universidad Politécnica de Madrid Learning Management System (LMS), Moodle. The stored data is based on the user-platform interaction. The raw data will be extracted and pre-processed and afterwards, Data Mining Techniques will be applied. One of the crucial factors in the application of Data Mining Techniques is the kind of information that will be processed. For this reason, a new Data Mining perspective will be taken, called Educational Data Mining (EDM). EDM consists of the application of Data Mining Techniques but optimized for the raw data generated by the educational environment. Within EDM, we have decided to drive our research on what is called Predictive Analysis. The main purpose is to understand the influence of the user-platform interactions in the final grades of students and discover new patterns that explain their behaviours. This could allow teachers to intervene ahead of a student passing or failing, in such a way an action could be taken to improve the student performance. All the information processed has been previously anonymized to avoid the invasion of privacy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.