73 resultados para Tipo de cambio real


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El centro de Madrid es un área urbana en transición hacia un modelo de ciudad ciclable. Su administración local está construyendo progresivamente una red de vías ciclistas y aparcamientos, en el marco del Plan Director de Movilidad Ciclista. El deseo de aumentar el porcentaje de viajes en bicicleta refuerza la importancia de conocer cómo se produce la decisión de usar la bicicleta como modo de transporte, y cómo se cambia de un comportamiento de elección modal a otro. Para ello, se ha llevado a cabo un estudio, basado en encuestas y aforos ciclistas, y en el marco de la Teoría de la Acción Planificada, antes de la implantación de dos ejes ciclistas en el centro de Madrid, cuyas variables han sido: las actitudes hacia el uso de la bicicleta como modo de transporte; las percepciones y valoraciones sobre las dificultades percibidas para la utilización de la bicicleta como modo habitual; y la disposición al cambio de uso. De forma general, los usuarios habituales de la bicicleta valoran más positivamente las características de la misma como modo de transporte, que los usuarios habituales del resto de modos. El grado de dificultad percibido por los encuestados en utilizar la bicicleta para sus desplazamientos habituales es más alto, cuanto menor es el indicador global de actitud hacia su uso. De las diferencias entre los usuarios habituales y los no usuarios se desprende que los factores comúnmente indicados como barreras al uso de este modo (el sudor, la climatología, la capacitación frente al tráfico, la condición física, las distancias, la orografía etc.), parecen ser más bien consecuencia del desconocimiento, que de la experiencia real del hecho ciclista. Otro tipo de factores (exposición relativa a la contaminación, la presencia de instalaciones complementarias, la agresividad del tráfico motorizado, el riesgo de accidentes, etc.) sí parecen ser más definitivos respecto a la elección de este modo como modo habitual. La disposición al uso futuro de la bicicleta también está muy influenciada por el hábito de uso actual. Así, los resultados de este estudio permiten conocer las características y los factores de dificultad que hay que abordar para fomentar el uso de la bicicleta como modo de transporte habitual entre la gran mayoría de la población que actualmente no utiliza este modo, y se sugieren algunas de las posibles medidas a implantar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neuronal morphology is a key feature in the study of brain circuits, as it is highly related to information processing and functional identification. Neuronal morphology affects the process of integration of inputs from other neurons and determines the neurons which receive the output of the neurons. Different parts of the neurons can operate semi-independently according to the spatial location of the synaptic connections. As a result, there is considerable interest in the analysis of the microanatomy of nervous cells since it constitutes an excellent tool for better understanding cortical function. However, the morphologies, molecular features and electrophysiological properties of neuronal cells are extremely variable. Except for some special cases, this variability makes it hard to find a set of features that unambiguously define a neuronal type. In addition, there are distinct types of neurons in particular regions of the brain. This morphological variability makes the analysis and modeling of neuronal morphology a challenge. Uncertainty is a key feature in many complex real-world problems. Probability theory provides a framework for modeling and reasoning with uncertainty. Probabilistic graphical models combine statistical theory and graph theory to provide a tool for managing domains with uncertainty. In particular, we focus on Bayesian networks, the most commonly used probabilistic graphical model. In this dissertation, we design new methods for learning Bayesian networks and apply them to the problem of modeling and analyzing morphological data from neurons. The morphology of a neuron can be quantified using a number of measurements, e.g., the length of the dendrites and the axon, the number of bifurcations, the direction of the dendrites and the axon, etc. These measurements can be modeled as discrete or continuous data. The continuous data can be linear (e.g., the length or the width of a dendrite) or directional (e.g., the direction of the axon). These data may follow complex probability distributions and may not fit any known parametric distribution. Modeling this kind of problems using hybrid Bayesian networks with discrete, linear and directional variables poses a number of challenges regarding learning from data, inference, etc. In this dissertation, we propose a method for modeling and simulating basal dendritic trees from pyramidal neurons using Bayesian networks to capture the interactions between the variables in the problem domain. A complete set of variables is measured from the dendrites, and a learning algorithm is applied to find the structure and estimate the parameters of the probability distributions included in the Bayesian networks. Then, a simulation algorithm is used to build the virtual dendrites by sampling values from the Bayesian networks, and a thorough evaluation is performed to show the model’s ability to generate realistic dendrites. In this first approach, the variables are discretized so that discrete Bayesian networks can be learned and simulated. Then, we address the problem of learning hybrid Bayesian networks with different kinds of variables. Mixtures of polynomials have been proposed as a way of representing probability densities in hybrid Bayesian networks. We present a method for learning mixtures of polynomials approximations of one-dimensional, multidimensional and conditional probability densities from data. The method is based on basis spline interpolation, where a density is approximated as a linear combination of basis splines. The proposed algorithms are evaluated using artificial datasets. We also use the proposed methods as a non-parametric density estimation technique in Bayesian network classifiers. Next, we address the problem of including directional data in Bayesian networks. These data have some special properties that rule out the use of classical statistics. Therefore, different distributions and statistics, such as the univariate von Mises and the multivariate von Mises–Fisher distributions, should be used to deal with this kind of information. In particular, we extend the naive Bayes classifier to the case where the conditional probability distributions of the predictive variables given the class follow either of these distributions. We consider the simple scenario, where only directional predictive variables are used, and the hybrid case, where discrete, Gaussian and directional distributions are mixed. The classifier decision functions and their decision surfaces are studied at length. Artificial examples are used to illustrate the behavior of the classifiers. The proposed classifiers are empirically evaluated over real datasets. We also study the problem of interneuron classification. An extensive group of experts is asked to classify a set of neurons according to their most prominent anatomical features. A web application is developed to retrieve the experts’ classifications. We compute agreement measures to analyze the consensus between the experts when classifying the neurons. Using Bayesian networks and clustering algorithms on the resulting data, we investigate the suitability of the anatomical terms and neuron types commonly used in the literature. Additionally, we apply supervised learning approaches to automatically classify interneurons using the values of their morphological measurements. Then, a methodology for building a model which captures the opinions of all the experts is presented. First, one Bayesian network is learned for each expert, and we propose an algorithm for clustering Bayesian networks corresponding to experts with similar behaviors. Then, a Bayesian network which represents the opinions of each group of experts is induced. Finally, a consensus Bayesian multinet which models the opinions of the whole group of experts is built. A thorough analysis of the consensus model identifies different behaviors between the experts when classifying the interneurons in the experiment. A set of characterizing morphological traits for the neuronal types can be defined by performing inference in the Bayesian multinet. These findings are used to validate the model and to gain some insights into neuron morphology. Finally, we study a classification problem where the true class label of the training instances is not known. Instead, a set of class labels is available for each instance. This is inspired by the neuron classification problem, where a group of experts is asked to individually provide a class label for each instance. We propose a novel approach for learning Bayesian networks using count vectors which represent the number of experts who selected each class label for each instance. These Bayesian networks are evaluated using artificial datasets from supervised learning problems. Resumen La morfología neuronal es una característica clave en el estudio de los circuitos cerebrales, ya que está altamente relacionada con el procesado de información y con los roles funcionales. La morfología neuronal afecta al proceso de integración de las señales de entrada y determina las neuronas que reciben las salidas de otras neuronas. Las diferentes partes de la neurona pueden operar de forma semi-independiente de acuerdo a la localización espacial de las conexiones sinápticas. Por tanto, existe un interés considerable en el análisis de la microanatomía de las células nerviosas, ya que constituye una excelente herramienta para comprender mejor el funcionamiento de la corteza cerebral. Sin embargo, las propiedades morfológicas, moleculares y electrofisiológicas de las células neuronales son extremadamente variables. Excepto en algunos casos especiales, esta variabilidad morfológica dificulta la definición de un conjunto de características que distingan claramente un tipo neuronal. Además, existen diferentes tipos de neuronas en regiones particulares del cerebro. La variabilidad neuronal hace que el análisis y el modelado de la morfología neuronal sean un importante reto científico. La incertidumbre es una propiedad clave en muchos problemas reales. La teoría de la probabilidad proporciona un marco para modelar y razonar bajo incertidumbre. Los modelos gráficos probabilísticos combinan la teoría estadística y la teoría de grafos con el objetivo de proporcionar una herramienta con la que trabajar bajo incertidumbre. En particular, nos centraremos en las redes bayesianas, el modelo más utilizado dentro de los modelos gráficos probabilísticos. En esta tesis hemos diseñado nuevos métodos para aprender redes bayesianas, inspirados por y aplicados al problema del modelado y análisis de datos morfológicos de neuronas. La morfología de una neurona puede ser cuantificada usando una serie de medidas, por ejemplo, la longitud de las dendritas y el axón, el número de bifurcaciones, la dirección de las dendritas y el axón, etc. Estas medidas pueden ser modeladas como datos continuos o discretos. A su vez, los datos continuos pueden ser lineales (por ejemplo, la longitud o la anchura de una dendrita) o direccionales (por ejemplo, la dirección del axón). Estos datos pueden llegar a seguir distribuciones de probabilidad muy complejas y pueden no ajustarse a ninguna distribución paramétrica conocida. El modelado de este tipo de problemas con redes bayesianas híbridas incluyendo variables discretas, lineales y direccionales presenta una serie de retos en relación al aprendizaje a partir de datos, la inferencia, etc. En esta tesis se propone un método para modelar y simular árboles dendríticos basales de neuronas piramidales usando redes bayesianas para capturar las interacciones entre las variables del problema. Para ello, se mide un amplio conjunto de variables de las dendritas y se aplica un algoritmo de aprendizaje con el que se aprende la estructura y se estiman los parámetros de las distribuciones de probabilidad que constituyen las redes bayesianas. Después, se usa un algoritmo de simulación para construir dendritas virtuales mediante el muestreo de valores de las redes bayesianas. Finalmente, se lleva a cabo una profunda evaluaci ón para verificar la capacidad del modelo a la hora de generar dendritas realistas. En esta primera aproximación, las variables fueron discretizadas para poder aprender y muestrear las redes bayesianas. A continuación, se aborda el problema del aprendizaje de redes bayesianas con diferentes tipos de variables. Las mixturas de polinomios constituyen un método para representar densidades de probabilidad en redes bayesianas híbridas. Presentamos un método para aprender aproximaciones de densidades unidimensionales, multidimensionales y condicionales a partir de datos utilizando mixturas de polinomios. El método se basa en interpolación con splines, que aproxima una densidad como una combinación lineal de splines. Los algoritmos propuestos se evalúan utilizando bases de datos artificiales. Además, las mixturas de polinomios son utilizadas como un método no paramétrico de estimación de densidades para clasificadores basados en redes bayesianas. Después, se estudia el problema de incluir información direccional en redes bayesianas. Este tipo de datos presenta una serie de características especiales que impiden el uso de las técnicas estadísticas clásicas. Por ello, para manejar este tipo de información se deben usar estadísticos y distribuciones de probabilidad específicos, como la distribución univariante von Mises y la distribución multivariante von Mises–Fisher. En concreto, en esta tesis extendemos el clasificador naive Bayes al caso en el que las distribuciones de probabilidad condicionada de las variables predictoras dada la clase siguen alguna de estas distribuciones. Se estudia el caso base, en el que sólo se utilizan variables direccionales, y el caso híbrido, en el que variables discretas, lineales y direccionales aparecen mezcladas. También se estudian los clasificadores desde un punto de vista teórico, derivando sus funciones de decisión y las superficies de decisión asociadas. El comportamiento de los clasificadores se ilustra utilizando bases de datos artificiales. Además, los clasificadores son evaluados empíricamente utilizando bases de datos reales. También se estudia el problema de la clasificación de interneuronas. Desarrollamos una aplicación web que permite a un grupo de expertos clasificar un conjunto de neuronas de acuerdo a sus características morfológicas más destacadas. Se utilizan medidas de concordancia para analizar el consenso entre los expertos a la hora de clasificar las neuronas. Se investiga la idoneidad de los términos anatómicos y de los tipos neuronales utilizados frecuentemente en la literatura a través del análisis de redes bayesianas y la aplicación de algoritmos de clustering. Además, se aplican técnicas de aprendizaje supervisado con el objetivo de clasificar de forma automática las interneuronas a partir de sus valores morfológicos. A continuación, se presenta una metodología para construir un modelo que captura las opiniones de todos los expertos. Primero, se genera una red bayesiana para cada experto y se propone un algoritmo para agrupar las redes bayesianas que se corresponden con expertos con comportamientos similares. Después, se induce una red bayesiana que modela la opinión de cada grupo de expertos. Por último, se construye una multired bayesiana que modela las opiniones del conjunto completo de expertos. El análisis del modelo consensuado permite identificar diferentes comportamientos entre los expertos a la hora de clasificar las neuronas. Además, permite extraer un conjunto de características morfológicas relevantes para cada uno de los tipos neuronales mediante inferencia con la multired bayesiana. Estos descubrimientos se utilizan para validar el modelo y constituyen información relevante acerca de la morfología neuronal. Por último, se estudia un problema de clasificación en el que la etiqueta de clase de los datos de entrenamiento es incierta. En cambio, disponemos de un conjunto de etiquetas para cada instancia. Este problema está inspirado en el problema de la clasificación de neuronas, en el que un grupo de expertos proporciona una etiqueta de clase para cada instancia de manera individual. Se propone un método para aprender redes bayesianas utilizando vectores de cuentas, que representan el número de expertos que seleccionan cada etiqueta de clase para cada instancia. Estas redes bayesianas se evalúan utilizando bases de datos artificiales de problemas de aprendizaje supervisado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomografía transaxial es una técnica radiográfica, que permite obtener imágenes de secciones bidimensionales, pertenecientes a estructuras tridimensionales mediante la exploración apropiada y utilizando algún tipo de radiación. En este trabajo se presentan algunos de los algoritmos de reconstrucción, que tienen como característica común, el procesamiento de los datos directamente en el dominio real, excluyendo cualquier otro tipo de manipulación. Asimismo, se incluye una breve introducción a los métodos de reconstrucción analógicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis estudia la monitorización y gestión de la Calidad de Experiencia (QoE) en los servicios de distribución dedeo sobre IP. Aborda el problema de cómo prevenir, detectar, medir y reaccionar a las degradaciones de la QoE desde la perspectiva de un proveedor de servicios: la solución debe ser escalable para una red IP extensa que entregue flujos individuales a miles de usuarios simultáneamente. La solución de monitorización propuesta se ha denominado QuEM(Qualitative Experience Monitoring, o Monitorización Cualitativa de la Experiencia). Se basa en la detección de las degradaciones de la calidad de servicio de red (pérdidas de paquetes, disminuciones abruptas del ancho de banda...) e inferir de cada una una descripción cualitativa de su efecto en la Calidad de Experiencia percibida (silencios, defectos en el vídeo...). Este análisis se apoya en la información de transporte y de la capa de abstracción de red de los flujos codificados, y permite caracterizar los defectos más relevantes que se observan en este tipo de servicios: congelaciones, efecto de “cuadros”, silencios, pérdida de calidad del vídeo, retardos e interrupciones en el servicio. Los resultados se han validado mediante pruebas de calidad subjetiva. La metodología usada en esas pruebas se ha desarrollado a su vez para imitar lo más posible las condiciones de visualización de un usuario de este tipo de servicios: los defectos que se evalúan se introducen de forma aleatoria en medio de una secuencia dedeo continua. Se han propuesto también algunas aplicaciones basadas en la solución de monitorización: un sistema de protección desigual frente a errores que ofrece más protección a las partes del vídeo más sensibles a pérdidas, una solución para minimizar el impacto de la interrupción de la descarga de segmentos de Streaming Adaptativo sobre HTTP, y un sistema de cifrado selectivo que encripta únicamente las partes del vídeo más sensibles. También se ha presentado una solución de cambio rápido de canal, así como el análisis de la aplicabilidad de los resultados anteriores a un escenario dedeo en 3D. ABSTRACT This thesis proposes a comprehensive approach to the monitoring and management of Quality of Experience (QoE) in multimedia delivery services over IP. It addresses the problem of preventing, detecting, measuring, and reacting to QoE degradations, under the constraints of a service provider: the solution must scale for a wide IP network delivering individual media streams to thousands of users. The solution proposed for the monitoring is called QuEM (Qualitative Experience Monitoring). It is based on the detection of degradations in the network Quality of Service (packet losses, bandwidth drops...) and the mapping of each degradation event to a qualitative description of its effect in the perceived Quality of Experience (audio mutes, video artifacts...). This mapping is based on the analysis of the transport and Network Abstraction Layer information of the coded stream, and allows a good characterization of the most relevant defects that exist in this kind of services: screen freezing, macroblocking, audio mutes, video quality drops, delay issues, and service outages. The results have been validated by subjective quality assessment tests. The methodology used for those test has also been designed to mimic as much as possible the conditions of a real user of those services: the impairments to evaluate are introduced randomly in the middle of a continuous video stream. Based on the monitoring solution, several applications have been proposed as well: an unequal error protection system which provides higher protection to the parts of the stream which are more critical for the QoE, a solution which applies the same principles to minimize the impact of incomplete segment downloads in HTTP Adaptive Streaming, and a selective scrambling algorithm which ciphers only the most sensitive parts of the media stream. A fast channel change application is also presented, as well as a discussion about how to apply the previous results and concepts in a 3D video scenario.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Proyecto Fin de Carrera realizado aborda un estudio teórico acerca de la retransmisión de un Real Madrid – F.C. Barcelona. Con este proyecto se intenta que el lector consiga tener una idea acerca de todo lo que con lleva un partido de fútbol con estas dimensiones desde el punto de vista audiovisual y sea capaz de entender los pasos necesarios a dar para realizarlo. Cuando vemos la retransmisión de un evento deportivo y concretamente de un partido de fútbol de tal envergadura, es casi imposible pensar el despliegue que hay detrás de él. Por ello, se ha intentado explicar de una manera sencilla y breve la manera de realizar un evento de este tamaño, que podría servir como ejemplo para realizar otros eventos deportivos de gran escala. A lo largo de este proyecto, se realiza un estudio completo sobre los principales pasos a dar para hacer posible que la retransmisión llegue a los espectadores. La memoria de este proyecto está basada en 7 capítulos. En el primer capítulo, se expone una breve introducción sobre la retransmisión de partidos, para que el lector pueda hacerse una idea de lo que se va a realizar posteriormente y pueda tener una idea de lo que se explica en los capítulos restantes. En el segundo capítulo, se trata del primer paso para la retransmisión de un partido de fútbol, que puede aplicarse a otros eventos deportivos. Este apartado está centrado en la localización del lugar, en él se explican los primeros pasos a dar en los primeros días de montaje. Estos son fundamentales para que posteriormente el partido pueda salir de la mejor manera posible, equivocarse o cometer errores al inicio puede acarrear mayores gastos económicos y grandes demoras de tiempo posteriormente. El tercer capítulo se centra en el montaje y la producción del evento. En la primera parte, se explica cómo situar dentro del campo de fútbol los micrófonos y las cámaras. Además, se hace una descripción de cada uno de ellos. También se introducen conceptos básicos y parámetros de los principales micrófonos y cámaras que se usarán en el evento. La segunda parte del capítulo se centra en explicar las diferentes señales utilizadas, como se transmiten y la comunicación interna y externa. El capítulo cuarto sirve para conocer el material necesario para realizar el evento. Se explican: micrófonos, cámaras, EVS (Unidades de grabación), CCU (Camera Control Unit), mezclador y tipo de cableado indicando los modelos y marcas más relevantes que se usan en la actualidad. Además, se pueden ver diferentes figuras del material utilizado. En el quinto capítulo, se ven las principales funciones que realizan los empleados. Comienza con una amplia explicación de la realización del evento y continúa explicando las diferentes funciones de los operadores del material visto en el capítulo anterior. El capítulo sexto, sirve para explicar un presupuesto aproximado de lo que sería la realización y producción del evento y poder estudiar la viabilidad de este. Por último, en el capítulo séptimo se ven una serie de conclusiones a modo de resumen, las cuales han de ayudar a dejar completamente claros una serie de conceptos básicos acerca del proyecto. ABSTRACT. The Thesis made deals with a theoretical study of the broadcast of a Real Madrid - FC Barcelona. This project, tries that the reader gets has an idea of everything that has a football match with these dimensions from the visual point of view and be able to understand the steps to take. When we see the broadcast of a sport event and specifically a football match of this magnitude, it is almost impossible to think the deployment behind it. Therefore, we have tried to explain in a simple and concise way to hold an event of this size and it could serve for other large-scale sporting events. Throughout this project, a comprehensive study is done on the main steps to be taken to make the broadcast possible way to reach spectators. The memory of this project is based on seven chapters. In the first chapter, a brief introduction explains retransmission matches, so that the reader can get an idea about is explained in the next chapters. In the second chapter, the first step is performed to broadcast a football match and that can be applied to other sports events. This section focuses on the location of where it explains the first days of installation. This is important for later the match can be done of the best possible way and wrong or make mistakes at the beginning can lead to higher economic costs and long delays of time later. The third chapter focuses on the assembly and production of the event. The first part explains how to locate within the football field microphones and cameras. It also explains each one. Also, introduces basic concepts and parameters of the main microphones and cameras that will be used at the event. In the second part, the chapter focuses on explaining the different signals used as transmission and communication internally and externally. The fourth chapter serves to meet the necessary material for the event. It explains: microphones, cameras, EVS, CCU, mixer and cabling type indicating the most relevant models and brands that are used today. Also, you can see different figures on the material used. In the fifth chapter, the main functions are performed by employees. It begins with a thorough explanation of the event and goes on to explain the various functions of the operators of the material seen in the previous chapter. The sixth chapter, helps explain an estimate of what would be the creation and production of the event and to study the feasibility of this. Finally, in the seventh chapter are a number of conclusions in summary, which should help to make thoroughly clear a number of basic concepts about the project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto consiste en la actualización del sistema de soporte operacional (OSS) con respecto a las nuevas redes para acceso móvil LTE/4G. El trabajo es un ejercicio real ejercido para Vodafone, compañía de telefonía en España. El producto OSS de Ericsson España es un sistema de supervisión de soporte de la red para cualquier tipo de nodo, pero el proyecto se centrará en los nodos de red LTE (Long Term Evolution). Con este sistema se puede gestionar cualquier cambio en los nodos, incidencias o actualizaciones en la red de manera fiable y sin pérdida de datos. Se profundizará en la descripción del software y del hardware del producto OSS. Se hablará de la tecnología LTE, detallando la evolución sufrida en las redes, el paso de 2G/3G a 4G y todo ello centrado en la industria puntera de las redes de telefonía móviles, así como las nuevas características que esta tecnología aporta y la compatibilidad con las anteriores. ABSTRACT. This project consists of the upgrade of the operational & support system (OSS) regarding the new functionality implemented for the LTE/4G mobile access networks. The project has been implemented in a live environment in Vodafone Spain. Ericsson OSS product consists of a network monitoring system for support and configuration of Core and Radio network elements. This project will be focused on LTE (Long Term Evolution) network nodes. The OSS system can manage any changes in the nodes, incidents or updates to the network in a reliable way without data loss. The description of OSS software and hardware is going to be explained in detail. LTE technology is going to be introduced, detailing the network evolution from 2G/3G to 4G, all focused on the industry leading mobile phone networks and the new features that this technology provides.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo principal de la ventilación es garantizar las condiciones de explotación en servicio y de seguridad en caso de incendio en el interior del túnel. En la mayoría de los túneles de una cierta importancia esto se consigue mediante la disposición de instalaciones mecánicas de ventilación que permiten forzar el desplazamiento del aire de la forma deseada. Los principios de funcionamiento que pueden encontrarse en la práctica son muy diversos aunque pueden clasificarse según el comportamiento del aire en el interior del túnel (PIARC, Circular Francesa) o en función de si existen o no elementos de separación entre la zona reservada a la circulación de los vehículos y los conductos de ventilación (Recomendaciones suizas). Siguiendo este último principio de clasificación, los que no presentan losa intermedia son aquellos en los que se emplean aceleradores y/o pozos de ventilación para conseguir las condiciones adecuadas. En cuanto a los sistemas que presentan losa intermedia existen dos principalmente el transversal y el semitransversal. En los sistemas de tipo transversal, durante el funcionamiento en servicio, en un tramo determinado del túnel el aporte de aire fresco es el mismo que el de extracción de tal forma que, en condiciones de igualdad de presión entre sus extremos, no existe corriente longitudinal. En cuanto a la sección transversal, el conducto de aire viciado debe situarse en la parte superior ocupando la sección superior de la bóveda de tal forma que permita la extracción de humos en caso de incendio a través de exutorios. En cambio, el aporte de aire fresco se suele realizar mediante aberturas situadas al nivel de la calzada o en la parte superior (aunque es desaconsejable) alimentadas desde conductos que pueden ir situados bajo la calzada o compartiendo la sección superior, en cuyo caso se dispone un tabique de separación entre ambos. En los sistemas de tipo semitransversal, durante el funcionamiento en servicio, se pretende dar a cada zona del túnel la cantidad de aire fresco necesario para diluir los contaminantes que allí se producen. El aire fresco se introduce a lo largo de todo el túnel a través de una serie de aberturas que comunican un conducto auxiliar situado en un falso techo del túnel. El aire contaminado sale a través de las bocas. Para prevenir el caso de incendio este tipo de ventilación puede estar preparada para invertir el sentido del aire y pasar a una aspiración a lo largo del túnel o en zonas localizadas. En este caso se denomina semitransversal reversible. En el caso de túneles de gran longitud es habitual la subdivisión del túnel en zonas o cantones que son alimentados desde una misma estación de ventilación, para lo que es preciso dividir el conducto de distribución en dos o más partes, quedando una de las secciones destinada a la distribución de aire al interior del túnel y la otra como transición al siguiente cantón. En el caso de sistemas de ventilación de tipo semitransversal reversible cada uno de los conductos puede ser empleado tanto para el aporte de aire fresco (sobrepresión) como la extracción de humos en caso de incendio (subpresión). Si a esto se añade la disposición de sistemas de ventiladores redundantes que permitan el auxilio en caso de fallo de algún equipo, es necesaria la disposición de complejos sistemas de registros para conectar los ventiladores. El tabique de separación entre los conductos se ve por tanto sometido a diferencias de presiones según el modo de funcionamiento, por lo que son precisos distintos escenarios de hipótesis de carga.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sistema capitalista ha generado dos de los modelos espaciales de indiferencia funcional más extremos: por un lado, el espacio tecnificado y repetido del edificio de oficinas en altura, encarnado por la ?planta tipo? y, por otro, el espacio diáfano y extenso del gran contendor, que responde a la lógica de lo que llamaremos ?planta única?. En los edificios construidos para la industria automovilística y bélica americana se encuentra el germen de un tipo que servirá de modelo para los nuevos espacios de consumo de bienes y servicios de la ciudad post-industrial. En ella, la identificación del rascacielos con el centro y del contenedor con la periferia sigue vigente, porque la densidad necesaria del primero y la ocupación extensiva del segundo hacen que resulte imposible invertir los términos. Sin embargo, ambos representan el desarrollo estrictamente pragmático de los principios de la ?planta libre? como sistema operativo genérico, dando lugar a construcciones de gran tamaño que ponen a prueba la resistencia a la escala del propio tipo. Tomando como referencia la neutralidad característica de la ?planta única? el texto analiza el comportamiento frente al cambio de tamaño de sus dos configuraciones complementarias: la gran sala hipóstila y la gran sala diáfana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este estudio se exploró y analizó el comportamiento visual de un grupo de porteros expertos de fútbol sala con el objetivo de comprobar cómo el tipo de respuesta motriz solicitada influía en su comportamiento visual. Participaron 4 porteros a los que se les presentó un total de 48 clips dedeo en una pantalla a tamaño real, bajo dos condiciones de respuesta: con movimiento de parada y sin movimiento de parada. Se registró su mirada con el pupilómetro ASL Mobile Eye durante dos condiciones de tiro de penalti. Se analizó la mirada en el intervalo de -250 a 205 ms en torno al disparo. Los resultados mostraron que cuando respondían con la acción habitual de parada, solo se encontraron fijaciones en la mitad de los casos, estas fijaciones eran de corta duración y localizadas principalmente en la zona del suelo justo enfrente del balón. Por el contrario, cuando se mantenían en posición estática, su mirada se dirigía hacia la zona entre el balón y la pierna de apoyo, empleando fijaciones de una duración más larga. Se puede concluir que el comportamiento visual fue diferente entre las dos condiciones como resultado de la adaptación a las demandas espacio-temporales específicas de cada condición, ya que el grado de movimiento en la respuesta solicitada tuvo influencia en el comportamiento visual asociado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años se ha producido un aumento constante en la potencia fotovoltaica instalada a nivel mundial. Este crecimiento, acompañado de crecimientos similares en el resto de energías renovables, está motivado por la necesidad de dar respuesta a varios de los retos que planteados al sector energético: creciente preocupación por los efectos en el medioambiente de las emisiones de gases de efecto invernadero, entre los que cabe destacar el cambio climático (IPCC 2011); el inevitable agotamiento de algunas fuentes tradicionales de energía eléctrica, basadas en combustibles fósiles, que llevara aparejado en las próximas décadas un aumento en el coste asociado a producir energía eléctrica mediante estas fuentes como indican Bentley (2002), Gori (2007), Kjastard (2009), Owen (2010) y Hughes (2011), y la necesidad para algunos países de asegurar su independencia energética, factor especialmente crítico para los países europeos debido a su escasez en reservas naturales de combustibles fósiles. La energía solar fotovoltaica, al igual que el resto de energías renovables, proporciona energía eléctrica de manera limpia y segura y plantea soluciones a los problemas mencionados. Asimismo, las energías renovables también presentan beneficios sociales como la creación de empleo cualificado en actividades de ingeniería, fabricación, instalación y mantenimiento, así como en la investigación, desarrollo e innovación. Es por estos motivos que las energías renovables se han visto beneficiadas a lo largo de las últimas décadas de mecanismos favorables, subvenciones y primas a la producción, conducentes a su implantación y desarrollo. La Figura 1.1 muestra la evolución de la potencia total instalada a nivel mundial y su tasa de crecimiento del 2000 al 2012, de acuerdo con datos proporcionados por la Agencia Internacional de la Energía: IEA (2012a, 2013). Los datos incluidos en la Figura 1.1 solo incluyen a los países que pertenecen a la Agencia Internacional de la Energía: Alemania, Australia, Austria, Bélgica, Canadá, China, Corea, Dinamarca, España, Estados Unidos, Finlandia, Francia, Holanda, Israel, Italia, Japón, Malasia, México, Noruega, Portugal, Reino Unido, Suecia, Suiza y Turquía. La potencia instalada muestra un crecimiento de tipo exponencial, incrementándose cada año un 41,6% de media. A los 88,5 GWP de potencia fotovoltaica instalada en todos los países miembros de la IEA a finales de 2012 habría que añadir, siempre según la IEA (2013), 7 GWP adicionales repartidos en seis países que no pertenecen a este organismo: Republica Checa, Grecia, Bulgaria, Eslovaquia, Ucrania y Tailandia. Esta tendencia en la tasa de crecimiento se mantiene incluso en los últimos años del periodo cuando varios países han reducido los incentivos a las energías renovables. Como consecuencia de este crecimiento en algunos países la proporción de energía eléctrica total de origen fotovoltaico empieza a ser apreciable. Para los casos de España, Alemania e Italia, el porcentaje de energía eléctrica final producida sistemas fotovoltaicos conectados a la red (SFCR) fue, respectivamente, de 3,1% y 4,7% en 2012 y de 3,1% en 2011 en Italia. La potencia instalada, la energía producida y la demanda total en estos países desde el año 2006 al 2012, de acuerdo con REE (2012, 2012, 2013), BMU (2013) y TERNA (2013), se recoge en la Tabla 1.1. Para el caso de Italia se incluyen únicamente datos hasta el año 2011 por no encontrarse disponibles datos para 2012. A medida que el nivel de penetración de la energía solar fotovoltaica en los sistemas eléctricos aumenta la necesidad de que este tipo de energía se integre de manera efectiva en dichos sistemas aumenta. La integración efectiva de un generador en el sistema eléctrico requiere que su producción sea conocida de antemano para poder incluirlo en la planificación del sistema eléctrico con el objetivo de que la producción programada para los distintos generadores iguale a la demanda esperada. Esta planificación del sistema eléctrico se suele hacer a escala diaria. Asimismo, además de equilibrar la generación con la demanda esperada un generador eléctrico debe ser capaz de proporcionar servicios auxiliares al sistema eléctrico como compensación de desequilibrios entre generación y consumo, regulación de tensión o inyección de potencia reactiva, entre otros. Por ejemplo, los sistemas fotovoltaicos cuya potencia sea superior a 2 MWP deben contribuir en España desde el 2010 a garantizar la continuidad del suministro eléctrico frente a huecos de tensión (España, 2010), aplicándose a estos sistemas fotovoltaicos el mismo procedimiento de operación – PO 12.3, REE(2006) – que ya se aplicó en su día a los generadores eólicos (España, 2007). La energía fotovoltaica, junto a otras energías renovables como la eólica, ha sido considerada tradicionalmente una fuente de energía no regulable. En consecuencia, no ha sido tenida en cuenta por los operadores de los sistemas eléctricos como una fuente de energía fiable. Esta consideración de la fotovoltaica como fuente de energía no fiable se debe a su dependencia de las condiciones meteorológicas, radiación y temperatura, para producir energía. Si la producción de un sistema fotovoltaico pudiese conocerse con exactitud y con la suficiente antelación se facilitaría su integración en los sistemas eléctricos. Sin embargo, la mera predicción de cuanta energía producirá un sistema fotovoltaico, aun cuando esta predicción se haga sin error, puede no ser suficiente; la energía producida por el sistema fotovoltaico sigue estando limitada por las condiciones meteorológicas y no es posible regular esta producción de energía. Como ya se ha comentado, la capacidad por parte de un generador eléctrico de regular su potencia de salida, tanto anticipadamente como en tiempo real, es crucial a la hora de su integración en el sistema eléctrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Aeroelasticidad fue definida por Arthur Collar en 1947 como "el estudio de la interacción mutua entre fuerzas inerciales, elásticas y aerodinámicas actuando sobre elementos estructurales expuestos a una corriente de aire". Actualmente, esta definición se ha extendido hasta abarcar la influencia del control („Aeroservoelasticidad‟) e, incluso, de la temperatura („Aerotermoelasticidad‟). En el ámbito de la Ingeniería Aeronáutica, los fenómenos aeroelásticos, tanto estáticos (divergencia, inversión de mando) como dinámicos (flameo, bataneo) son bien conocidos desde los inicios de la Aviación. Las lecciones aprendidas a lo largo de la Historia Aeronáutica han permitido establecer criterios de diseño destinados a mitigar la probabilidad de sufrir fenómenos aeroelásticos adversos durante la vida operativa de una aeronave. Adicionalmente, el gran avance experimentado durante esta última década en el campo de la Aerodinámica Computacional y en la modelización aeroelástica ha permitido mejorar la fiabilidad en el cálculo de las condiciones de flameo de una aeronave en su fase de diseño. Sin embargo, aún hoy, los ensayos en vuelo siguen siendo necesarios para validar modelos aeroelásticos, verificar que la aeronave está libre de inestabilidades aeroelásticas y certificar sus distintas envolventes. En particular, durante el proceso de expansión de la envolvente de una aeronave en altitud/velocidad, se requiere predecir en tiempo real las condiciones de flameo y, en consecuencia, evitarlas. A tal efecto, en el ámbito de los ensayos en vuelo, se han desarrollado diversas metodologías que predicen, en tiempo real, las condiciones de flameo en función de condiciones de vuelo ya verificadas como libres de inestabilidades aeroelásticas. De entre todas ellas, aquella que relaciona el amortiguamiento y la velocidad con un parámetro específico definido como „Margen de Flameo‟ (Flutter Margin), permanece como la técnica más común para proceder con la expansión de Envolventes en altitud/velocidad. No obstante, a pesar de su popularidad y facilidad de aplicación, dicha técnica no es adecuada cuando en la aeronave a ensayar se hallan presentes no-linealidades mecánicas como, por ejemplo, holguras. En particular, en vuelos de ensayo dedicados específicamente a expandir la envolvente en altitud/velocidad, las condiciones de „Oscilaciones de Ciclo Límite‟ (Limit Cycle Oscillations, LCOs) no pueden ser diferenciadas de manera precisa de las condiciones de flameo, llevando a una determinación excesivamente conservativa de la misma. La presente Tesis desarrolla una metodología novedosa, basada en el concepto de „Margen de Flameo‟, que permite predecir en tiempo real las condiciones de „Ciclo Límite‟, siempre que existan, distinguiéndolas de las de flameo. En una primera parte, se realiza una revisión bibliográfica de la literatura acerca de los diversos métodos de ensayo existentes para efectuar la expansión de la envolvente de una aeronave en altitud/velocidad, el efecto de las no-linealidades mecánicas en el comportamiento aeroelástico de dicha aeronave, así como una revisión de las Normas de Certificación civiles y militares respecto a este tema. En una segunda parte, se propone una metodología de expansión de envolvente en tiempo real, basada en el concepto de „Margen de Flameo‟, que tiene en cuenta la presencia de no-linealidades del tipo holgura en el sistema aeroelástico objeto de estudio. Adicionalmente, la metodología propuesta se valida contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab. Para ello, se plantean las ecuaciones aeroelásticas no-estacionarias de un perfil bidimensional en la formulación espacio-estado y se incorpora la metodología anterior a través de un módulo de análisis de señal y otro módulo de predicción. En una tercera parte, se comparan las conclusiones obtenidas con las expuestas en la literatura actual y se aplica la metodología propuesta a resultados experimentales de ensayos en vuelo reales. En resumen, los principales resultados de esta Tesis son: 1. Resumen del estado del arte en los métodos de ensayo aplicados a la expansión de envolvente en altitud/velocidad y la influencia de no-linealidades mecánicas en la determinación de la misma. 2. Revisión de la normas de Certificación Civiles y las normas Militares en relación a la verificación aeroelástica de aeronaves y los límites permitidos en presencia de no-linealidades. 3. Desarrollo de una metodología de expansión de envolvente basada en el Margen de Flameo. 4. Validación de la metodología anterior contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab/Simulink. 5. Análisis de los resultados obtenidos y comparación con resultados experimentales. ABSTRACT Aeroelasticity was defined by Arthur Collar in 1947 as “the study of the mutual interaction among inertia, elastic and aerodynamic forces when acting on structural elements surrounded by airflow”. Today, this definition has been updated to take into account the Controls („Aeroservoelasticity‟) and even the temperature („Aerothermoelasticity‟). Within the Aeronautical Engineering, aeroelastic phenomena, either static (divergence, aileron reversal) or dynamic (flutter, buzz), are well known since the early beginning of the Aviation. Lessons learned along the History of the Aeronautics have provided several design criteria in order to mitigate the probability of encountering adverse aeroelastic phenomena along the operational life of an aircraft. Additionally, last decade improvements experienced by the Computational Aerodynamics and aeroelastic modelization have refined the flutter onset speed calculations during the design phase of an aircraft. However, still today, flight test remains as a key tool to validate aeroelastic models, to verify flutter-free conditions and to certify the different envelopes of an aircraft. Specifically, during the envelope expansion in altitude/speed, real time prediction of flutter conditions is required in order to avoid them in flight. In that sense, within the flight test community, several methodologies have been developed to predict in real time flutter conditions based on free-flutter flight conditions. Among them, the damping versus velocity technique combined with a Flutter Margin implementation remains as the most common technique used to proceed with the envelope expansion in altitude/airspeed. However, although its popularity and „easy to implement‟ characteristics, several shortcomings can adversely affect to the identification of unstable conditions when mechanical non-linearties, as freeplay, are present. Specially, during test flights devoted to envelope expansion in altitude/airspeed, Limits Cycle Oscillations (LCOs) conditions can not be accurately distinguished from those of flutter and, in consequence, it leads to an excessively conservative envelope determination. The present Thesis develops a new methodology, based on the Flutter Margin concept, that enables in real time the prediction of the „Limit Cycle‟ conditions, whenever they exist, without degrading the capability of predicting the flutter onset speed. The first part of this Thesis presents a review of the state of the art regarding the test methods available to proceed with the envelope expansion of an aircraft in altitude/airspeed and the effect of mechanical non-linearities on the aeroelastic behavior. Also, both civil and military regulations are reviewed with respect aeroelastic investigation of air vehicles. The second part of this Thesis proposes a new methodology to perform envelope expansion in real time based on the Flutter Margin concept when non-linearities, as freeplay, are present. Additionally, this methodology is validated against a Matlab/Slimulink bidimensional aeroelastic model. This model, parametric and interactive, is formulated within the state-space field and it implements the proposed methodology through two main real time modules: A signal processing module and a prediction module. The third part of this Thesis compares the final conclusions derived from the proposed methodology with those stated by the flight test community and experimental results. In summary, the main results provided by this Thesis are: 1. State of the Art review of the test methods applied to envelope expansion in altitude/airspeed and the influence of mechanical non-linearities in its identification. 2. Review of the main civil and military regulations regarding the aeroelastic verification of air vehicles and the limits set when non-linearities are present. 3. Development of a methodology for envelope expansion based on the Flutter Margin concept. 4. A Matlab/Simulink 2D-[aeroelastic model], parametric and interactive, used as a tool to validate the proposed methodology. 5. Conclusions driven from the present Thesis and comparison with experimental results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mayoría de las leguminosas establecen una simbiosis con bacterias denominadas rizobios que fijan dinitrógeno en estructuras especializadas llamadas nódulos a cambio de fotosintatos. Existen varios elementos que hacen esta interacción específica y efectiva, entre ellos se encuentra la presencia, en algunos rizobios, de estructuras tubulares que introducen proteínas de la bacteria (efectores) en el citoplasma de células vegetales. En nuestro estudio de la interacción de la bacteria designada como Bradyrhizobium sp. LmjC con el altramuz valenciano L. mariae-josephae Pascual, hemos demostrado que existe uno de esos sistemas de secreción de tipo III y que éste es esencial para una simbiosis eficiente. Además hemos iniciado la caracterización de un posible efector denominado NopE y por último estamos estudiando otros rasgos fenotípicos de dicha bacteria como su resistencia a antibióticos, su crecimiento con distintas fuentes de carbono, su tiempo de generación y otras pruebas bioquímicas como la actividad ureasa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo se propone determinar la distribución de tamaño y número de partículas nanométricas provenientes de motores diésel con equipos embarcados en tráfico extraurbano. Para ello, se utilizaron equipos de medición de última generación en condiciones promedio de conducción en tráfico extraurbano por más de 800 km a lo largo del trayecto Madrid-Badajoz-Madrid mediante un vehículo característico del parque automotor español y se implementaron métodos novedosos y pioneros en el registro de este tipo de emisiones. Todo ello abre el camino para líneas de investigación y desarrollo que contribuirán a entender, dimensionar y cualificar el comportamiento de las partículas, así como su impacto en la calidad de vida de la población. El estudio hace dos grandes aportes al campo. Primero, permite registrar las emisiones en condiciones transitorias propias del tráfico real. Segundo, permite mantener controladas las condiciones de medición y evita la formación aleatoria de partículas provenientes de material volátil, gracias al sistema de adecuación de la muestra de gases de escape incorporado. Como resultado, se obtuvo una muestra abundante y confiable que permitió construir modelos matemáticos para calcular la emisión de partículas nanométricas, ultrafinas, finas y totales sobre las bases volumétrica, espacial y temporal en función de la pendiente del perfil orográfico de la carretera, siempre y cuando esté dentro del intervalo ±5.0%. Estos modelos de cálculo de emisiones reducen tanto los costos de experimentación como la complejidad de los equipos necesarios, y fundamentaron el desarrollo de la primera versión de una aplicación informática que calcula las partículas emitidas por un motor diésel en condiciones de tráfico extraurbano ("Partículas Emitidas por Motores Diésel, PEMDI). ABSTRACT The purpose of this research is to determine the distribution of size and number of nanometric particles that come from diesel engines by means of on-board equipment in extra-urban traffic. In order to do this, cutting-edge measuring equipment was used under average driving conditions in extra-urban traffic for more than 800 km along the Madrid-Badajoz-Madrid route using a typical vehicle from Spain's automotive population and innovative, groundbreaking registering methods for this type of emissions were used. All this paves the way for lines of research and development which should help understand, measure and characterize the behavior of such particles, as well as their impact in the quality of life of the general population. The study makes two important contributions to the field. First, it makes it possible to register emissions under transient conditions, which are characteristic to real traffic. Secondly, it provides a means to keep the measuring conditions under control and prevents the random formation of particles of volatile origin through the built-in adjustment system of the exhaust gas sample. As a result, an abundant and reliable sample was gathered, which enabled the building of mathematical models to estimate the emission of nanometric, ultrafine, fine and total particles on volumetric, spatial and temporal bases as a function of the orographic outline of the road within a ±5.0% range. These emission estimating models lower both the experimentation costs and the required equipment's complexity, and they provided the basis for the development of a first software application version that estimates the particles emitted from diesel engines under extra-urban traffic conditions (Partículas Emitidas por Motores Diésel, PEMDI).