877 resultados para Real applications
Resumo:
Recently a new recipe for developing and deploying real-time systems has become increasingly adopted in the JET tokamak. Powered by the advent of x86 multi-core technology and the reliability of the JET’s well established Real-Time Data Network (RTDN) to handle all real-time I/O, an official Linux vanilla kernel has been demonstrated to be able to provide realtime performance to user-space applications that are required to meet stringent timing constraints. In particular, a careful rearrangement of the Interrupt ReQuests’ (IRQs) affinities together with the kernel’s CPU isolation mechanism allows to obtain either soft or hard real-time behavior depending on the synchronization mechanism adopted. Finally, the Multithreaded Application Real-Time executor (MARTe) framework is used for building applications particularly optimised for exploring multicore architectures. In the past year, four new systems based on this philosophy have been installed and are now part of the JET’s routine operation. The focus of the present work is on the configuration and interconnection of the ingredients that enable these new systems’ real-time capability and on the impact that JET’s distributed real-time architecture has on system engineering requirements, such as algorithm testing and plant commissioning. Details are given about the common real-time configuration and development path of these systems, followed by a brief description of each system together with results regarding their real-time performance. A cycle time jitter analysis of a user-space MARTe based application synchronising over a network is also presented. The goal is to compare its deterministic performance while running on a vanilla and on a Messaging Real time Grid (MRG) Linux kernel.
Resumo:
Purpose – Reducing energy consumption in walking robots is an issue of great importance in field applications such as humanitarian demining so as to increase mission time for a given power supply. The purpose of this paper is to address the problem of improving energy efficiency in statically stable walking machines by comparing two leg, insect and mammal, configurations on the hexapod robotic platform SILO6. Design/methodology/approach – Dynamic simulation of this hexapod is used to develop a set of rules that optimize energy expenditure in both configurations. Later, through a theoretical analysis of energy consumption and experimental measurements in the real platform SILO6, a configuration is chosen. Findings – It is widely accepted that the mammal configuration in statically stable walking machines is better for supporting high loads, while the insect configuration is considered to be better for improving mobility. However, taking into account the leg dynamics and not only the body weight, different results are obtained. In a mammal configuration, supporting body weight accounts for 5 per cent of power consumption while leg dynamics accounts for 31 per cent. Originality/value – As this paper demonstrates, the energy expended when the robot walks along a straight and horizontal line is the same for both insect and mammal configurations, while power consumption during crab walking in an insect configuration exceeds power consumption in the mammal configuration.
Resumo:
En los últimos años, debido al notable desarrollo de los terminales portátiles, que han pasado de ser “simples” teléfonos o reproductores a puros ordenadores, ha crecido el número de servicios que ofrecen cada vez mayor cantidad de contenido multimedia a través de internet. Además, la distinta evolución de estos terminales hace que nos encontremos en el mercado con una amplísima gama de productos de diferentes tamaños y capacidades de procesamiento, lo que hace necesario encontrar una fórmula que permita satisfacer la demanda de dichos servicios sea cual sea la naturaleza de nuestro dispositivo. Para poder ofrecer una solución adecuada se ha optado por la integración de un protocolo como RTP y un estándar de video como SVC. RTP (Real-time Transport Protocol), en contraposición a los protocolos de propósito general fue diseñado para aplicaciones de tiempo real por lo que es ideal para el streaming de contenido multimedia. Por su parte, SVC es un estándar de video escalable que permite transmitir en un mismo stream una capa base y múltiples capas de mejora, por lo que podremos adaptar la calidad y tamaño del contenido a la capacidad y tamaño de nuestro dispositivo. El objetivo de este proyecto consiste en integrar y modificar tanto el reproductor MPlayer como la librería RTP live555 de tal forma que sean capaces de soportar el formato SVC sobre el protocolo RTP y montar un sistema servidorcliente para comprobar su funcionamiento. Aunque este proceso esté orientado a llevarse a cabo en un dispositivo móvil, para este proyecto se ha optado por realizarlo en el escenario más sencillo posible, para lo cual, se emitirán secuencias a una máquina virtual alojada en el mismo ordenador que el servidor. ABSTRACT In recent years, due to the remarkable development of mobile devices, which have evolved from "simple" phones or players to computers, the amount of services that offer multimedia content over the internet have shot up. Furthermore, the different evolution of these terminals causes that we can find in the market a wide range of different sizes and processing capabilities, making necessary to find a formula that will satisfy the demand for such services regardless of the nature of our device. In order to provide a suitable solution we have chosen to integrate a protocol as RTP and a video standard as SVC. RTP (Real-time Transport Protocol), in opposition to general purpose protocols was designed for real-time applications making it ideal for media streaming. Meanwhile, SVC is a scalable video standard which can transmit a single stream in a base layer and multiple enhancement layers, so that we can adapt the quality and size of the content to the capacity and size of our device. The objective of this project is to integrate and modify both MPlayer and RTP library live555 so that they support the SVC format over RTP protocol and set up a client-server system to check its behavior. Although this process has been designed to be done on a mobile device, for this project we have chosen to do it in the simplest possible scenario so we will stream to a virtual machine hosted on the same computer where we have the server.
Resumo:
Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the model’s ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von Mises–Fisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts’ classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfología neuronal es una característica clave en el estudio de los circuitos cerebrales, ya que está altamente relacionada con el procesado de información y con los roles funcionales. La morfología neuronal afecta al proceso de integración de las señales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localización espacial de las conexiones sinápticas. Por tanto, existe un interés considerable en el análisis de la microanatomía de las células nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfológicas, moleculares y electrofisiológicas de las células neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfológica dificulta la definición de un conjunto de características que distingan claramente un tipo neuronal. Además, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el análisis y el modelado de la morfología neuronal sean un importante reto científico. La incertidumbre es una propiedad clave en muchos problemas reales. La teoría de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos gráficos probabilísticos combinan la teoría estadística y la teoría de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo más utilizado dentro de los modelos gráficos probabilísticos. En esta tesis hemos diseñado nuevos métodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y análisis de datos morfológicos de neuronas. La morfología de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axón, el número de bifurcaciones, la dirección de las dendritas y el axón, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la dirección del axón). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribución paramétrica conocida. El modelado de este tipo de problemas con redes bayesianas híbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relación al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un método para modelar y simular árboles dendríticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parámetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Después, se usa un algoritmo de simulación para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci ón para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximación, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuación, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un método para representar densidades de probabilidad en redes bayesianas híbridas. Presentamos un método para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El método se basa en interpolación con splines, que aproxima una densidad como una combinación lineal de splines. Los algoritmos propuestos se evalúan utilizando bases de datos artificiales. Además, las mixturas de polinomios son utilizadas como un método no paramétrico de estimación de densidades para clasificadores basados en redes bayesianas. Después, se estudia el problema de incluir información direccional en redes bayesianas. Este tipo de datos presenta una serie de características especiales que impiden el uso de las técnicas estadísticas clásicas. Por ello, para manejar este tipo de información se deben usar estadísticos y distribuciones de probabilidad específicos, como la distribución univariante von Mises y la distribución multivariante von Mises–Fisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que sólo se utilizan variables direccionales, y el caso híbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. También se estudian los clasificadores desde un punto de vista teórico, derivando sus funciones de decisión y las superficies de decisión asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Además, los clasificadores son evaluados empíricamente utilizando bases de datos reales. También se estudia el problema de la clasificación de interneuronas. Desarrollamos una aplicación web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus características morfológicas más destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los términos anatómicos y de los tipos neuronales utilizados frecuentemente en la literatura a través del análisis de redes bayesianas y la aplicación de algoritmos de clustering. Además, se aplican técnicas de aprendizaje supervisado con el objetivo de clasificar de forma automática las interneuronas a partir de sus valores morfológicos. A continuación, se presenta una metodología para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Después, se induce una red bayesiana que modela la opinión de cada grupo de expertos. Por último, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El análisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Además, permite extraer un conjunto de características morfológicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen información relevante acerca de la morfología neuronal. Por último, se estudia un problema de clasificación en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema está inspirado en el problema de la clasificación de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un método para aprender redes bayesianas utilizando vectores de cuentas, que representan el número de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalúan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.
Resumo:
SSR es el acrónimo de SoundScape Renderer (tool for real-time spatial audio reproduction providing a variety of rendering algorithms), es un programa escrito en su mayoría en C++. El programa permite al usuario escuchar tanto sonidos grabados con anterioridad como sonidos en directo. El sonido o los sonidos se oirán, desde el punto de vista del oyente, como si el sonido se produjese en el punto que el programa decida, lo interesante de este proyecto es que el sonido podrá cambiar de lugar, moverse, etc. Todo en tiempo real. Esto se consigue sin modificar el sonido al grabarlo pero sí al emitirlo, el programa calcula las variaciones necesarias para que al emitir el sonido al oyente le llegue como si el sonido realmente se generase en un punto del espacio o lo más parecido posible. La sensación de movimiento no deja de ser el punto anterior cambiando de lugar. La idea era crear una aplicación web basada en Canvas de HTML5 que se comunicará con esta interfaz de usuario remota. Así se solucionarían todos los problemas de compatibilidad ya que cualquier dispositivo con posibilidad de visualizar páginas web podría correr una aplicación basada en estándares web, por ejemplo un sistema con Windows o un móvil con navegador. El protocolo debía de ser WebSocket porque es un protocolo HTML5 y ofrece las “garantías” de latencia que una aplicación con necesidades de información en tiempo real requiere. Nos permite una comunicación full-dúplex asíncrona sin mucho payload que es justo lo que se venía a evitar al no usar polling normal de HTML. El problema que surgió fue que la interfaz de usuario de red que tenía el programa no era compatible con WebSocket debido a un handshacking inicial y obligatorio que realiza el protocolo, por lo que se necesitaba otra interfaz de red. Se decidió entonces cambiar a JSON como formato para el intercambio de mensajes. Al final el proyecto comprende no sólo la aplicación web basada en Canvas sino también un servidor funcional y la definición de una nueva interfaz de usuario de red con su protocolo añadido. ABSTRACT. This project aims to become a part of the SSR tool to extend its capabilities in the field of the access. SSR is an acronym for SoundScape Renderer, is a program mostly written in C++ that allows you to hear already recorded or live sound with a variety of sound equipment as if the sound came from a desired place in the space. Like the web-page of the SSR says surely better explained: “The SoundScape Renderer (SSR) is a tool for real-time spatial audio reproduction providing a variety of rendering algorithms.” The application can be used with a graphical interface written in Qt but has also a network interface for external applications to use it. This network interface communicates using XML messages. A good example of it is the Android client. This Android client is already working. In order to use the application should be run it by loading an audio source and the wanted environment so that the renderer knows what to do. In that moment the server binds and anyone can use the network interface. Since the network interface is documented everyone can make an application to interact with this network interface. So the application can have as many user interfaces as wanted. The part that is developed in this project has nothing to do neither with audio rendering nor even with the reproduction of the spatial audio. The part that is developed here is about the interface used in the SSR application. As it can be deduced from the title: “Distributed Web Interface for Real-Time Spatial Audio Reproduction System”, this work aims only to offer the interface via web for the SSR (“Real-Time Spatial Audio Reproduction System”). The idea is not to make a new graphical interface for SSR but to allow more types of interfaces and communication. To accomplish the objective of allowing more graphical interfaces this project is going to use a new network interface. By now the SSR application is using only XML for data interchange but this new network interface support JSON. This project comprehends the server that launch the application, the user interface and the new network interface. It is done with these modules in order to allow creating new user interfaces that can communicate with the server or new servers that can communicate with the user interface by defining a complete network interface for data interchange.
Resumo:
La concentración fotovoltaica (CPV) es una de las formas más prometedoras de reducir el coste de la energía proveniente del sol. Esto es posible gracias a células solares de alta eficiencia y a una significativa reducción del tamaño de la misma, que está fabricada con costosos materiales semiconductores. Ambos aspectos están íntimamente ligados ya que las altas eficiencias solamente son posibles con materiales y tecnologías de célula caros, lo que forzosamente conlleva una reducción del tamaño de la célula si se quiere lograr un sistema rentable. La reducción en el tamaño de las células requiere que la luz proveniente del sol ha de ser redirigida (es decir, concentrada) hacia la posición de la célula. Esto se logra colocando un concentrador óptico encima de la célula. Estos concentradores para CPV están formados por diferentes elementos ópticos fabricados en materiales baratos, con el fin de reducir los costes de producción. El marco óptimo para el diseño de concentradores es la óptica anidólica u óptica nonimaging. La óptica nonimaging fue desarrollada por primera vez en la década de los años sesenta y ha ido evolucionando significativamente desde entonces. El objetivo de los diseños nonimaging es la transferencia eficiente de energía entre la fuente y el receptor (sol y célula respectivamente, en el caso de la CPV), sin tener en cuenta la formación de imagen. Los sistemas nonimaging suelen ser simples, están compuestos de un menor número de superficies que los sistemas formadores de imagen y son más tolerantes a errores de fabricación. Esto hace de los sistemas nonimaging una herramienta fundamental, no sólo en el diseño de concentradores fotovoltaicos, sino también en el diseño de otras aplicaciones como iluminación, proyección y comunicaciones inalámbricas ópticas. Los concentradores ópticos nonimaging son adecuados para aplicaciones CPV porque el objetivo no es la reproducción de una imagen exacta del sol (como sería el caso de las ópticas formadoras de imagen), sino simplemente la colección de su energía sobre la célula solar. Los concentradores para CPV pueden presentar muy diferentes arquitecturas y elementos ópticos, dando lugar a una gran variedad de posibles diseños. El primer elemento óptico que es atravesado por la luz del sol se llama Elemento Óptico Primario (POE en su nomenclatura anglosajona) y es el elemento más determinante a la hora de definir la forma y las propiedades del concentrador. El POE puede ser refractivo (lente) o reflexivo (espejo). Esta tesis se centra en los sistemas CPV que presentan lentes de Fresnel como POE, que son lentes refractivas delgadas y de bajo coste de producción que son capaces de concentrar la luz solar. El capítulo 1 expone una breve introducción a la óptica geométrica y no formadora de imagen (nonimaging), explicando sus fundamentos y conceptos básicos. Tras ello, la integración Köhler es presentada en detalle, explicando sus principios, válidos tanto para aplicaciones CPV como para iluminación. Una introducción a los conceptos fundamentales de CPV también ha sido incluida en este capítulo, donde se analizan las propiedades de las células solares multiunión y de los concentradores ópticos empleados en los sistemas CPV. El capítulo se cierra con una descripción de las tecnologías existentes empleadas para la fabricación de elementos ópticos que componen los concentradores. El capítulo 2 se centra principalmente en el diseño y desarrollo de los tres concentradores ópticos avanzados Fresnel Köhler que se presentan en esta tesis: Fresnel-Köhler (FK), Fresnel-Köhler curvo (DFK) y Fresnel-Köhler con cavidad (CFK). Todos ellos llevan a cabo integración Köhler y presentan una lente de Fresnel como su elemento óptico primario. Cada uno de estos concentradores CPV presenta sus propias propiedades y su propio procedimiento de diseño. Además, presentan todas las características que todo concentrador ha de tener: elevado factor de concentración, alta tolerancia de fabricación, alta eficiencia óptica, irradiancia uniforme sobre la superficie de la célula y bajo coste de producción. Los concentradores FK y DFK presentan una configuración de cuatro sectores para lograr la integración Köhler. Esto quiere decir que POE y SOE se dividen en cuatro sectores simétricos cada uno, y cada sector del POE trabaja conjuntamente con su correspondiente sector de SOE. La principal diferencia entre los dos concentradores es que el POE del FK es una lente de Fresnel plana, mientras que una lente curva de Fresnel es empleada como POE del DFK. El concentrador CFK incluye una cavidad de confinamiento externo integrada, que es un elemento óptico capaz de recuperar los rayos reflejados por la superficie de la célula con el fin de ser reabsorbidos por la misma. Por tanto, se aumenta la absorción de la luz, lo que implica un aumento en la eficiencia del módulo. Además, este capítulo también explica un método de diseño alternativo para los elementos faceteados, especialmente adecuado para las lentes curvas como el POE del DFK. El capítulo 3 se centra en la caracterización y medidas experimentales de los concentradores ópticos presentados en el capítulo 2, y describe sus procedimientos. Estos procedimientos son en general aplicables a cualquier concentrador basado en una lente de Fresnel, e incluyen tres tipos principales de medidas experimentales: eficiencia eléctrica, ángulo de aceptancia y uniformidad de la irradiancia en el plano de la célula. Los resultados que se muestran a lo largo de este capítulo validarán a través de medidas a sol real las características avanzadas que presentan los concentradores Köhler, y que se demuestran en el capítulo 2 mediante simulaciones de rayos. Cada concentrador (FK, DFK y CFK) está diseñado y optimizado teniendo en cuenta condiciones de operación realistas. Su rendimiento se modela de forma exhaustiva mediante el trazado de rayos en combinación con modelos distribuidos para la célula. La tolerancia es un asunto crítico de cara al proceso de fabricación, y ha de ser máxima para obtener sistemas de producción en masa rentables. Concentradores con tolerancias limitadas generan bajadas significativas de eficiencia a nivel de array, causadas por el desajuste de corrientes entre los diferentes módulos (principalmente debido a errores de alineación en la fabricación). En este sentido, la sección 3.5 presenta dos métodos matemáticos que estiman estas pérdidas por desajuste a nivel de array mediante un análisis de sus curvas I-V, y por tanto siendo innecesarias las medidas a nivel de mono-módulo. El capítulo 3 también describe la caracterización indoor de los elementos ópticos que componen los concentradores, es decir, de las lentes de Fresnel que actúan como POE y de los secundarios free-form. El objetivo de esta caracterización es el de evaluar los adecuados perfiles de las superficies y las transmisiones ópticas de los diferentes elementos analizados, y así hacer que el rendimiento del módulo sea el esperado. Esta tesis la cierra el capítulo 4, en el que la integración Köhler se presenta como una buena alternativa para obtener distribuciones uniformes en aplicaciones de iluminación de estado sólido (iluminación con LED), siendo particularmente eficaz cuando se requiere adicionalmente una buena mezcla de colores. En este capítulo esto se muestra a través del ejemplo particular de un concentrador DFK, el cual se ha utilizado para aplicaciones CPV en los capítulos anteriores. Otra alternativa para lograr mezclas cromáticas apropiadas está basada en un método ya conocido (deflexiones anómalas), y también se ha utilizado aquí para diseñar una lente TIR aplanética delgada. Esta lente cumple la conservación de étendue, asegurando así que no hay bloqueo ni dilución de luz simultáneamente. Ambos enfoques presentan claras ventajas sobre las técnicas clásicas empleadas en iluminación para obtener distribuciones de iluminación uniforme: difusores y mezcla caleidoscópica mediante guías de luz. ABSTRACT Concentrating Photovoltaics (CPV) is one of the most promising ways of reducing the cost of energy collected from the sun. This is possible thanks to both, very high-efficiency solar cells and a large decrease in the size of cells, which are made of costly semiconductor materials. Both issues are closely linked since high efficiency values are only possible with expensive cell materials and technologies, implying a compulsory area reduction if cost-effectiveness is desired. The reduction in the cell size requires that light coming from the sun must be redirected (i.e. concentrated) towards the cell position. This is achieved by placing an optical concentrator system on top of the cell. These CPV concentrators consist of different optical elements manufactured on cheap materials in order to maintain low production costs. The optimal framework for the design of concentrators is nonimaging optics. Nonimaging optics was first developed in the 60s decade and has been largely developed ever since. The aim of nonimaging devices is the efficient transfer of light power between the source and the receiver (sun and cell respectively in the case of CPV), disregarding image formation. Nonimaging systems are usually simple, comprised of fewer surfaces than imaging systems and are more tolerant to manufacturing errors. This renders nonimaging optics a fundamental tool, not only in the design of photovoltaic concentrators, but also in the design of other applications as illumination, projection and wireless optical communications. Nonimaging optical concentrators are well suited for CPV applications because the goal is not the reproduction of an exact image of the sun (as imaging optics would provide), but simply the collection of its energy on the solar cell. Concentrators for CPV may present very different architectures and optical elements, resulting in a vast variety of possible designs. The first optical element that sunlight goes through is called the Primary Optical Element (POE) and is the most determinant element in order to define the shape and properties of the whole concentrator. The POE can be either refractive (lens) or reflective (mirror). This thesis focuses on CPV systems based on Fresnel lenses as POE, which are thin and inexpensive refractive lenses able to concentrate sunlight. Chapter 1 exposes a short introduction to geometrical and nonimaging optics, explaining their fundamentals and basic concepts. Then, the Köhler integration is presented in detail, explaining its principles, valid for both applications: CPV and illumination. An introduction to CPV fundamental concepts is also included in this chapter, analyzing the properties of multijunction solar cells and optical concentrators employed in CPV systems. The chapter is closed with a description of the existing technologies employed for the manufacture of optical elements composing the concentrator. Chapter 2 is mainly devoted to the design and development of the three advanced Fresnel Köhler optical concentrators presented in this thesis work: Fresnel-Köhler (FK), Dome-shaped Fresnel-Köhler (DFK) and Cavity Fresnel-Köhler (CFK). They all perform Köhler integration and comprise a Fresnel lens as their Primary Optical Element. Each one of these CPV concentrators presents its own characteristics, properties and its own design procedure. Their performances include all the key issues in a concentrator: high concentration factor, large tolerances, high optical efficiency, uniform irradiance on the cell surface and low production cost. The FK and DFK concentrators present a 4-fold configuration in order to perform the Köhler integration. This means that POE and SOE are divided into four symmetric sectors each one, working each POE sector with its corresponding SOE sector by pairs. The main difference between both concentrators is that the POE of the FK is a flat Fresnel lens, while a dome-shaped (curved) Fresnel lens performs as the DFK’s POE. The CFK concentrator includes an integrated external confinement cavity, which is an optical element able to recover rays reflected by the cell surface in order to be re-absorbed by the cell. It increases the light absorption, entailing an increase in the efficiency of the module. Additionally, an alternative design method for faceted elements will also be explained, especially suitable for dome-shaped lenses as the POE of the DFK. Chapter 3 focuses on the characterization and experimental measurements of the optical concentrators presented in Chapter 2, describing their procedures. These procedures are in general applicable to any Fresnel-based concentrator as well and include three main types of experimental measurements: electrical efficiency, acceptance angle and irradiance uniformity at the solar cell plane. The results shown along this chapter will validate through outdoor measurements under real sun operation the advanced characteristics presented by the Köhler concentrators, which are demonstrated in Chapter 2 through raytrace simulation: high optical efficiency, large acceptance angle, insensitivity to manufacturing tolerances and very good irradiance uniformity on the cell surface. Each concentrator (FK, DFK and CFK) is designed and optimized looking at realistic performance characteristics. Their performances are modeled exhaustively using ray tracing combined with cell modeling, taking into account the major relevant factors. The tolerance is a critical issue when coming to the manufacturing process in order to obtain cost-effective mass-production systems. Concentrators with tight tolerances result in significant efficiency drops at array level caused by current mismatch among different modules (mainly due to manufacturing alignment errors). In this sense, Section 3.5 presents two mathematical methods that estimate these mismatch losses for a given array just by analyzing its full-array I-V curve, hence being unnecessary any single mono-module measurement. Chapter 3 also describes the indoor characterization of the optical elements composing the concentrators, i.e. the Fresnel lenses acting as POEs and the free-form SOEs. The aim of this characterization is to assess the proper surface profiles and optical transmissions of the different elements analyzed, so they will allow for the expected module performance. This thesis is closed by Chapter 4, in which Köhler integration is presented as a good approach to obtain uniform distributions in Solid State Lighting applications (i.e. illumination with LEDs), being particularly effective when dealing with color mixing requirements. This chapter shows it through the particular example of a DFK concentrator, which has been used for CPV applications in the previous chapters. An alternative known method for color mixing purposes (anomalous deflections) has also been used to design a thin aplanatic TIR lens. This lens fulfills conservation of étendue, thus ensuring no light blocking and no light dilution at the same time. Both approaches present clear advantages over the classical techniques employed in lighting to obtain uniform illumination distributions: diffusers and kaleidoscopic lightpipe mixing.
Resumo:
El presente trabajo trata de elementos reforzados con barras de armadura y Fibras Metálicas Recicladas (FMR). El objetivo principal es mejorar el comportamiento a fisuración de elementos sometidos a flexión pura y a flexión compuesta, aumentando en consecuencia las prestaciones en servicio de aquellas estructuras con requerimientos estrictos con respecto al control de fisuración. Entre éstas últimas se encuentran las estructuras integrales, es decir aquellas estructuras sin juntas (puentes o edificios), sometidas a cargas gravitatorias y deformaciones impuestas en los elementos horizontales debidas a retracción, fluencia y temperatura. Las FMR son obtenidas a partir de los neumáticos fuera de uso, y puesto que el procedimiento de reciclado se centra en el caucho en vez que en el acero, su forma es aleatoria y con longitud variable. A pesar de que la eficacia del fibrorefuerzo mediante FMR ha sido demostrada en investigaciones anteriores, la innovación que representa este trabajo consiste en proponer la acción combinada de barras convencionales y FMR en la mejora del comportamiento a fisuración. El objetivo es por tanto mejorar la sostenibilidad del proyecto de la estructura en HA al utilizar materiales reciclados por un lado, y aumentando por el otro la durabilidad. En primer lugar, se presenta el estado del arte con respecto a la fisuración en elementos de HA, que sucesivamente se amplía a elementos reforzados con barras y fibras. Asimismo, se resume el método simplificado para el análisis de columnas de estructuras sin juntas ya propuesto por Pérez et al., con particular énfasis en aquellos aspectos que son incompatibles con la acción de las fibras a nivel seccional. A continuación, se presenta un modelo para describir la deformabilidad seccional y la fisuración en elementos en HA, que luego se amplía a aquellos elementos reforzados con barras y fibras, teniendo en cuenta también los efectos debidos a la retracción (tension stiffening negativo). El modelo es luego empleado para ampliar el método simplificado para el análisis de columnas. La aportación consiste por tanto en contar con una metodología amplia de análisis para este tipo de elementos. Seguidamente, se presenta la campaña experimental preliminar que ha involucrado vigas a escala reducida sometidas a flexión simple, con el objetivo de validar la eficiencia y la usabilidad en el hormigón de las FMR de dos diferentes tipos, y su comportamiento con respecto a fibras de acero comerciales. Se describe a continuación la campaña principal, consistente en ensayos sobre ocho vigas en flexión simple a escala 1:1 (variando contenido en FRM, Ø/s,eff y recubrimiento) y doce columnas a flexión compuesta (variando contenido en FMR, Ø/s,eff y nivel de fuerza axil). Los resultados obtenidos en la campaña principal son presentados y comentados, resaltando las mejoras obtenidas en el comportamiento a fisuración de las vigas y columnas, y la rigidez estructural de las columnas. Estos resultados se comparan con las predicciones del modelo propuesto. Los principales parámetros estudiados para describir la fisuración y el comportamiento seccional de las vigas son: la separación entre fisuras, el alargamiento medio de las armaduras y la abertura de fisura, mientras que en los ensayos de las columnas se ha contrastado las leyes momento/curvatura, la tensión en las barras de armadura y la abertura de fisura en el empotramiento en la base. La comparación muestra un buen acuerdo entre las predicciones y los resultados experimentales. Asimismo, se nota la mejora en el comportamiento a fisuración debido a la incorporación de FMR en aquellos elementos con cuantías de armadura bajas en flexión simple, en elementos con axiles bajos y para el control de la fisuración en elementos con grandes recubrimientos, siendo por tanto resultados de inmediato impacto en la práctica ingenieril (diseño de losas, tanques, estructuras integrales, etc.). VIIIComo punto final, se presentan aplicaciones de las FMR en estructuras reales. Se discuten dos casos de elementos sometidos a flexión pura, en particular una viga simplemente apoyada y un tanque para el tratamiento de agua. En ambos casos la adicción de FMR al hormigón lleva a mejoras en el comportamiento a fisuración. Luego, utilizando el método simplificado para el análisis en servicio de columnas de estructuras sin juntas, se calcula la máxima longitud admisible en casos típicos de puentes y edificación. En particular, se demuestra que las limitaciones de la práctica ingenieril actual (sobre todo en edificación) pueden ser aumentadas considerando el comportamiento real de las columnas en HA. Finalmente, los mismos casos son modificados para considerar el uso de MFR, y se presentan las mejoras tanto en la máxima longitud admisible como en la abertura de fisura para una longitud y deformación impuesta. This work deals with elements reinforced with both rebars and Recycled Steel Fibres (RSFs). Its main objective is to improve cracking behaviour of elements subjected to pure bending and bending and axial force, resulting in better serviceability conditions for these structures demanding keen crack width control. Among these structures a particularly interesting type are the so-called integral structures, i.e. long jointless structures (bridges and buildings) subjected to gravitational loads and imposed deformations due to shrinkage, creep and temperature. RSFs are obtained from End of Life Tyres, and due to the recycling process that is focused on the rubber rather than on the steel they come out crooked and with variable length. Although the effectiveness of RSFs had already been proven by previous research, the innovation of this work consists in the proposing the combined action of conventional rebars and RSFs to improve cracking behaviour. Therefore, the objective is to improve the sustainability of RC structures by, on the one hand, using recycled materials, and on the other improving their durability. A state of the art on cracking in RC elements is firstly drawn. It is then expanded to elements reinforced with both rebars and fibres (R/FRC elements). Finally, the simplified method for analysis of columns of long jointless structures already proposed by Pérez et al. is resumed, with a special focus on the points that conflict when taking into account the action of fibres. Afterwards, a model to describe sectional deformability and cracking of R/FRC elements is presented, taking also into account the effect of shrinkage (negative tension stiffening). The model is then used to implement the simplified method for columns. The novelty represented by this is that a comprehensive methodology to analyse this type of elements is presented. A preliminary experimental campaign consisting in small beams subjected to pure bending is described, with the objective of validating the effectiveness and usability in concrete of RSFs of two different types, and their behaviour when compared with commercial steel fibres. With the results and lessons learnt from this campaign in mind, the main experimental campaign is then described, consisting in cracking tests of eight unscaled beams in pure bending (varying RSF content, Ø/s,eff and concrete cover) and twelve columns subjected to imposed displacement and axial force (varying RSF content, Ø/s,eff and squashing load ratio). The results obtained from the main campaign are presented and discussed, with particular focus on the improvement in cracking behaviour for the beams and columns, and structural stiffness for the columns. They are then compared with the proposed model. The main parameters studied to describe cracking and sectional behaviours of the beam tests are crack spacing, mean steel strain and crack width, while for the column tests these were moment/curvature, stress in rebars and crack with at column embedment. The comparison showed satisfactory agreement between experimental results and model predictions. Moreover, it is pointed out the improvement in cracking behaviour due to the addition of RSF for elements with low reinforcement ratios, elements with low squashing load ratios and for crack width control of elements with large concrete covers, thus representing results with a immediate impact in engineering practice (slab design, tanks, integral structures, etc.). Applications of RSF to actual structures are finally presented. Two cases of elements in pure bending are presented, namely a simple supported beam and a water treatment tank. In both cases the addition of RSF to concrete leads to improvements in cracking behaviour. Then, using the simplified model for the serviceability analysis of columns of jointless structures, the maximum achievable jointless length of typical cases of a bridge and building is obtained. In XIIparticular, it is shown how the limitations of current engineering practice (this is especially the case of buildings) can be increased by considering the actual behaviour of RC supports. Then, the same cases are modified considering the use of RSF, and the improvements both in maximum achievable length and in crack width for a given length and imposed strain at the deck/first floor are shown.
Resumo:
Acourse focused on the acquisition of integration competencies in ship production engineering, organized in collaboration with selected industry partners, is presented in this paper. The first part of the course is dedicated to Project Management: the students acquire skills in defining, using MS-PROJECT, the work breakdown structure (WBS), and the organization breakdown structure (OBS) in Engineering projects, through a series of examples of increasing complexity with the final one being the construction planning of a vessel. The second part of the course is dedicated to the use of a database manager, MS-ACCESS, in managing production related information.Aseries of increasing complexity examples is treated, the final one being the management of the piping database of a real vessel. This database consists of several thousand pipes, for which a production timing frame is defined connecting this part of the course with the first one. Finally, the third part of the course is devoted to working withFORAN,an Engineering Production application developed bySENERand widely used in the shipbuilding industry. With this application, the structural elements where all the outfittings will be located are defined through cooperative work by the students, working simultaneously in the same 3D model. In this paper, specific details about the learning process are given. Surveys have been posed to the students in order to get feedback from their experience as well as to assess their satisfaction with the learning process, compared to more traditional ones. Results from these surveys are discussed in the paper.
Resumo:
A mobile Ad Hoc network (MANET) is a collection of wireless mobile nodes that can dynamically configure a network without a fixed infrastructure or central administration. This makes it ideal for emergency and rescue scenarios, where sharing information is essential and should occur as soon as possible. This article discusses which of the routing strategies for mobile MANETs: proactive, reactive or hierarchical, has a better performance in such scenarios. By selecting a real urban area for the emergency and rescue scenario, we calculated the density of nodes and the mobility model needed for the validation study of AODV, DSDV and CBRP in the routing model. The NS2 simulator has been used for our study. We also show that the hierarchical routing strategies are better suited for this type of scenarios.
Resumo:
Virtualization techniques have received increased attention in the field of embedded real-time systems. Such techniques provide a set of virtual machines that run on a single hardware platform, thus allowing several application programs to be executed as though they were running on separate machines, with isolated memory spaces and a fraction of the real processor time available to each of them.This papers deals with some problems that arise when implementing real-time systems written in Ada on a virtual machine. The effects of virtualization on the performance of the Ada real-time services are analysed, and requirements for the virtualization layer are derived. Virtual-machine time services are also defined in order to properly support Ada real-time applications. The implementation of the ORK+ kernel on the XtratuM supervisor is used as an example.
Resumo:
In this paper, we apply a hierarchical tracking strategy of planar objects (or that can be assumed to be planar) that is based on direct methods for vision-based applications on-board UAVs. The use of this tracking strategy allows to achieve the tasks at real-time frame rates and to overcome problems posed by the challenging conditions of the tasks: e.g. constant vibrations, fast 3D changes, or limited capacity on-board. The vast majority of approaches make use of feature-based methods to track objects. Nonetheless, in this paper we show that although some of these feature-based solutions are faster, direct methods can be more robust under fast 3D motions (fast changes in position), some changes in appearance, constant vibrations (without requiring any specific hardware or software for video stabilization), and situations in which part of the object to track is outside of the field of view of the camera. The performance of the proposed tracking strategy on-board UAVs is evaluated with images from realflight tests using manually-generated ground truth information, accurate position estimation using a Vicon system, and also with simulated data from a simulation environment. Results show that the hierarchical tracking strategy performs better than wellknown feature-based algorithms and well-known configurations of direct methods, and that its performance is robust enough for vision-in-the-loop tasks, e.g. for vision-based landing tasks.
Resumo:
Location-based services (LBS) highly rely on the location of the mobile user in order to provide the service tailored to that location. This location is calculated differently depending on the technology available in the used mobile device. No matter which technology is used, the location will never be calculated 100% correctly; instead there will always be a margin of error generated during the calculation, which is referred to as positional accuracy. This research has reviewed the eight most common positioning technologies available in the major current smart-phones and assessed their positional accuracy with respect to its usage by LBS applications. Given the vast majority of these applications, this research classified them into thirteen categories, and these categories were also classified depending on their level criticality as low, medium, or high critical, and whether they function indoor or outdoor. The accuracies of different positioning technologies are compared to these two criteria. Low critical outdoor and high critical indoor applications were found technologically covered; high and medium critical outdoor ones weren?t fully resolved. Finally three potential solutions are suggested to be implemented in future smartphones to resolve this technological gap: Real-Time Kinematics Global Positioning System (RTK GPS), terrestrial transmitters, and combination of Wireless Sensors Network and Radio Frequency Identification (WSN-RFID).
Resumo:
Batteries and ultracapacitors for hybrid and electric vehicles must satisfy very demanding working conditions that are not usual in other applications. In this sense, specific tests must be performed in order to draw accurate conclusions about their behaviour. To do so, new advanced test benches are needed. These platforms must allow the study of a wide variety of energy storage systems under conditions similar to the real ones. In this paper, a flexible, low-cost and highly customizable system is presented. This system allows batteries and ultracapacitors to be tested in many and varied ways, effectively emulating the working conditions that they face in an electric vehicle. The platform was specifically designed to study energy storage systems for electric and hybrid vehicles, meaning that it is suitable to test different systems in many different working conditions, including real driving cycles. This flexibility is achieved keeping the cost of the platform low, which makes the proposed test bench a feasible alternative for the industry. As an example of the functionality of the platform, a test consisting of a 17-minute ARTEMIS urban cycle with a NiMH battery pack is presented.
Resumo:
A spatial-color-based non-parametric background-foreground modeling strategy in a GPGPU by using CUDA is proposed. This strategy is suitable for augmented-reality applications, providing real-time high-quality results in a great variety of scenarios.
Resumo:
The increasing use of video editing software requires faster and more efficient editing tools. As a first step, these tools perform a temporal segmentation in shots that allows a later building of indexes describing the video content. Here, we propose a novel real-time high-quality shot detection strategy, suitable for the last generation of video editing software requiring both low computational cost and high quality results. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that helps to detect and discard false detections. This motion analysis is carried out exclusively over a reduced set of candidate transitions, thus maintaining the computational requirements demanded by new applications to fulfill user needs.