12 resultados para Sistemas especialistas : Redes neurais : Sistema de apoio a decisao : Tomada de decisao
em Universidad Politécnica de Madrid
Resumo:
En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.
Resumo:
El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).
Resumo:
Apuntes pertenecientes al Programa de Postgrado en Sistemas y Redes de Comunicaciones impartidos en la E.T.S.I. de Telecomunicación. Realizan una introducción intuitiva de la importancia de las técnicas de gestión y de los factores humanos en la gestión de proyectos de software.
Resumo:
Apuntes para el curso 2T05-GPS del Programa Máster sobre Sistemas y Redes de Comunicaciones impartido en la E.T.S.I. de telecomunicación, 1989 - 1994
Resumo:
El objetivo principal de este proyecto es la obtención del modelo tridimensional de la escultura del patrón San Isidoro de la E.T.S.I. Topografía, Geodesia y Cartografía fabricada en yeso con unas dimensiones de 225 mm de largo, 182 mm de ancho y 318 mm de alto. Se realizará mediante dos métodos diferentes: por medios fotogramétricos utilizando correlación,y por métodos de topografía industrial. En la toma de imágenes para la restitución fotogramétrica se utilizó una cámara no métrica, cuya calibración tuvo que ser realizada comparando dos sistemas de coordenadas, el sistema imagen determinado por técnicas fotogramétricas, y el sistema objeto o terreno determinado por técnicas de topografía clásica. De esta forma se obtienen los datos internos de la cámara. La tolerancia establecida a priori para fotogrametría terrestre es de 1 mm, verificando y contrastando los resultados obtenidos con equipos de trazabilidad superior con los que se procede a la extracción del modelo digital por métodos de topografía industrial, mediante escaneado de precisión. El modelo tridimensional obtenido podría ser útil para múltiples tareas, como disponer de documentación geométrica digital de la figura, su estudio para una posible restauración,etc.
Resumo:
El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.
Resumo:
La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.
Resumo:
This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.
Resumo:
En este artículo se presenta un sistema automático de almacenamiento, análisis y visualización de información semántica extraída de mensajes de Twitter, diseñado para proporcionar a las administraciones públicas una herramienta para detectar y analizar de una manera sencilla y rápida los patrones de comportamiento de los ciudadanos, su opinión acerca de los servicios públicos, la percepción de la ciudad, los eventos de interés, etc. Además, puede ser usado como un sistema de alerta temprana, mejorando la eficiencia y rapidez de actuación de los sistemas de emergencia.
Resumo:
La presente Tesis investiga el campo del reconocimiento automático de imágenes mediante ordenador aplicado al análisis de imágenes médicas en mamografía digital. Hay un interés por desarrollar sistemas de aprendizaje que asistan a los radiólogos en el reconocimiento de las microcalcificaciones para apoyarles en los programas de cribado y prevención del cáncer de mama. Para ello el análisis de las microcalcificaciones se ha revelado como técnica clave de diagnóstico precoz, pero sin embargo el diseño de sistemas automáticos para reconocerlas es complejo por la variabilidad y condiciones de las imágenes mamográficas. En este trabajo se analizan los planteamientos teóricos de diseño de sistemas de reconocimiento de imágenes, con énfasis en los problemas específicos de detección y clasificación de microcalcificaciones. Se ha realizado un estudio que incluye desde las técnicas de operadores morfológicos, redes neuronales, máquinas de vectores soporte, hasta las más recientes de aprendizaje profundo mediante redes neuronales convolucionales, contemplando la importancia de los conceptos de escala y jerarquía a la hora del diseño y sus implicaciones en la búsqueda de la arquitectura de conexiones y capas de la red. Con estos fundamentos teóricos y elementos de diseño procedentes de otros trabajos en este área realizados por el autor, se implementan tres sistemas de reconocimiento de mamografías que reflejan una evolución tecnológica, culminando en un sistema basado en Redes Neuronales Convolucionales (CNN) cuya arquitectura se diseña gracias al análisis teórico anterior y a los resultados prácticos de análisis de escalas llevados a cabo en nuestra base de datos de imágenes. Los tres sistemas se entrenan y validan con la base de datos de mamografías DDSM, con un total de 100 muestras de entrenamiento y 100 de prueba escogidas para evitar sesgos y reflejar fielmente un programa de cribado. La validez de las CNN para el problema que nos ocupa queda demostrada y se propone un camino de investigación para el diseño de su arquitectura. ABSTRACT This Dissertation investigates the field of computer image recognition applied to medical imaging in mammography. There is an interest in developing learning systems to assist radiologists in recognition of microcalcifications to help them in screening programs for prevention of breast cancer. Analysis of microcalcifications has emerged as a key technique for early diagnosis of breast cancer, but the design of automatic systems to recognize them is complicated by the variability and conditions of mammographic images. In this Thesis the theoretical approaches to design image recognition systems are discussed, with emphasis on the specific problems of detection and classification of microcalcifications. Our study includes techniques ranging from morphological operators, neural networks and support vector machines, to the most recent deep convolutional neural networks. We deal with learning theory by analyzing the importance of the concepts of scale and hierarchy at the design stage and its implications in the search for the architecture of connections and network layers. With these theoretical facts and design elements coming from other works in this area done by the author, three mammogram recognition systems which reflect technological developments are implemented, culminating in a system based on Convolutional Neural Networks (CNN), whose architecture is designed thanks to the previously mentioned theoretical study and practical results of analysis conducted on scales in our image database. All three systems are trained and validated against the DDSM mammographic database, with a total of 100 training samples and 100 test samples chosen to avoid bias and stand for a real screening program. The validity of the CNN approach to the problem is demonstrated and a research way to help in designing the architecture of these networks is proposed.
Resumo:
En la actualidad, y en consonancia con la tendencia de “sostenibilidad” extendida a todos los campos y parcelas de la ciencia, nos encontramos con un área de estudio basado en la problemática del inevitable deterioro de las estructuras existentes, y la gestión de las acciones a realizar para mantener las condiciones de servicio de los puentes y prolongar su vida útil. Tal y como se comienza a ver en las inversiones en los países avanzados, con una larga tradición en el desarrollo de sus infraestructuras, se muestra claramente el nuevo marco al que nos dirigimos. Las nuevas tendencias van encaminadas cada vez más a la conservación y mantenimiento, reduciéndose las partidas presupuestarias destinadas a nuevas actuaciones, debido a la completa vertebración territorial que se ha ido instaurando en estos países, entre los que España se encuentra. Este nutrido patrimonio de infraestructuras viarias, que cuentan a su vez con un importante número de estructuras, hacen necesarias las labores de gestión y mantenimiento de los puentes integrantes en las mismas. Bajo estas premisas, la tesis aborda el estado de desarrollo de la implementación de los sistemas de gestión de puentes, las tendencias actuales e identificación de campos por desarrollar, así como la aplicación específica a redes de carreteras de escasos recursos, más allá de la Red Estatal. Además de analizar las diversas metodologías de formación de inventarios, realización de inspecciones y evaluación del estado de puentes, se ha enfocado, como principal objetivo, el desarrollo de un sistema específico de predicción del deterioro y ayuda a la toma de decisiones. Este sistema, adicionalmente a la configuración tradicional de criterios de formación de bases de datos de estructuras e inspecciones, plantea, de forma justificada, la clasificación relativa al conjunto de la red gestionada, según su estado de condición. Eso permite, mediante técnicas de optimización, la correcta toma de decisiones a los técnicos encargados de la gestión de la red. Dentro de los diversos métodos de evaluación de la predicción de evolución del deterioro de cada puente, se plantea la utilización de un método bilineal simplificado envolvente del ajuste empírico realizado y de los modelos markovianos como la solución más efectiva para abordar el análisis de la predicción de la propagación del daño. Todo ello explotando la campaña experimenta realizada que, a partir de una serie de “fotografías técnicas” del estado de la red de puentes gestionados obtenidas mediante las inspecciones realizadas, es capaz de mejorar el proceso habitual de toma de decisiones. Toda la base teórica reflejada en el documento, se ve complementada mediante la implementación de un Sistema de Gestión de Puentes (SGP) específico, adaptado según las necesidades y limitaciones de la administración a la que se ha aplicado, en concreto, la Dirección General de Carreteras de la Junta de Comunidades de Castilla-La Mancha, para una muestra representativa del conjunto de puentes de la red de la provincia de Albacete, partiendo de una situación en la que no existe, actualmente, un sistema formal de gestión de puentes. Tras un meditado análisis del estado del arte dentro de los Capítulos 2 y 3, se plantea un modelo de predicción del deterioro dentro del Capítulo 4 “Modelo de Predicción del Deterioro”. De la misma manera, para la resolución del problema de optimización, se justifica la utilización de un novedoso sistema de optimización secuencial elegido dentro del Capítulo 5, los “Algoritmos Evolutivos”, en sus diferentes variantes, como la herramienta matemática más correcta para distribuir adecuadamente los recursos económicos dedicados a mantenimiento y conservación de los que esta administración pueda disponer en sus partidas de presupuesto a medio plazo. En el Capítulo 6, y en diversos Anexos al presente documento, se muestran los datos y resultados obtenidos de la aplicación específica desarrollada para la red local analizada, utilizando el modelo de deterioro y optimización secuencial, que garantiza la correcta asignación de los escasos recursos de los que disponen las redes autonómicas en España. Se plantea con especial interés la implantación de estos sistemas en la red secundaria española, debido a que reciben en los últimos tiempos una mayor responsabilidad de gestión, con recursos cada vez más limitados. Finalmente, en el Capítulo 7, se plantean una serie de conclusiones que nos hacen reflexionar de la necesidad de comenzar a pasar, en materia de gestión de infraestructuras, de los estudios teóricos y los congresos, hacia la aplicación y la práctica, con un planteamiento que nos debe llevar a cambios importantes en la forma de concebir la labor del ingeniero y las enseñanzas que se imparten en las escuelas. También se enumeran las aportaciones originales que plantea el documento frente al actual estado del arte. Se plantean, de la misma manera, las líneas de investigación en materia de Sistemas de Gestión de Puentes que pueden ayudar a refinar y mejorar los actuales sistemas utilizados. In line with the development of "sustainability" extended to all fields of science, we are faced with the inevitable and ongoing deterioration of existing structures, leading nowadays to the necessary management of maintaining the service conditions and life time extension of bridges. As per the increased amounts of money that can be observed being spent in the countries with an extensive and strong tradition in the development of their infrastructure, the trend can be clearly recognized. The new tendencies turn more and more towards conservation and maintenance, reducing programmed expenses for new construction activities, in line with the already wellestablished territorial structures, as is the case for Spain. This significant heritage of established road infrastructure, consequently containing a vast number of structures, imminently lead to necessary management and maintenance of the including bridges. Under these conditions, this thesis focusses on the status of the development of the management implementation for bridges, current trends, and identifying areas for further development. This also includes the specific application to road networks with limited resources, beyond the national highways. In addition to analyzing the various training methodologies, inventory inspections and condition assessments of bridges, the main objective has been the development of a specific methodology. This methodology, in addition to the traditional system of structure and inspection database training criteria, sustains the classification for the entire road network, according to their condition. This allows, through optimization techniques, for the correct decision making by the technical managers of the network. Among the various methods for assessing the evolution forecast of deterioration of each bridge, a simplified bilinear envelope adjustment made empirical method and Markov models as the most effective solution to address the analysis of predicting the spread of damage, arising from a "technical snapshot" obtained through inspections of the condition of the bridges included in the investigated network. All theoretical basis reflected in the document, is completed by implementing a specific Bridges Management System (BMS), adapted according to the needs and limitations of the authorities for which it has been applied, being in this case particularly the General Highways Directorate of the autonomous region of Castilla-La Mancha, for a representative sample of all bridges in the network in the province of Albacete, starting from a situation where there is currently no formal bridge management system. After an analysis of the state of the art in Chapters 2 and 3, a new deterioration prediction model is developed in Chapter 4, "Deterioration Prediction Model". In the same way, to solve the optimization problem is proposed the use of a singular system of sequential optimization elected under Chapter 5, the "Evolutionary Algorithms", the most suitable mathematical tool to adequately distribute the economic resources for maintenance and conservation for mid-term budget planning. In Chapter 6, and in the various appendices, data and results are presented of the developed application for the analyzed local network, from the optimization model, which guarantees the correct allocation of scarce resources at the disposal of authorities responsible for the regional networks in Spain. The implementation of these systems is witnessed with particular interest for the Spanish secondary network, because of the increasing management responsibility, with decreasing resources. Chapter 7 presents a series of conclusions that triggers to reconsider shifting from theoretical studies and conferences towards a practical implementation, considering how to properly conceive the engineering input and the related education. The original contributions of the document are also listed. In the same way, the research on the Bridges Management System can help evaluating and improving the used systematics.
Resumo:
La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.