957 resultados para flexibilidad
Resumo:
El presente proyecto de construcción tiene por objeto la ampliación del Complejo Polideportivo Municipal Valle de las Cañas, en el municipio de Pozuelo de Alarcón (Madrid). El objetivo del mismo es dotar a los ciudadanos de este municipio de una mayor flexibilidad en cuanto a la práctica del deporte, mediante la construcción de nuevas instalaciones para su desarrollo y creando, a su vez, un espacio para la explotación comercial de parte del complejo deportivo.
Resumo:
Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.
Resumo:
El viento, como factor medio-ambiental, ha sido objeto de numerosos estudios por los efectos que induce tanto en vehículos como en estructuras. Dentro del ámbito ferroviario, las cargas aerodinámicas debidas a la acción del viento transversal pueden poner en compromiso la seguridad de los vehículos en circulación, pudiendo llegar a ocasionar el vuelco del mismo. Incluso el sistema de cables encargado de realizar el suministro eléctrico necesario para la tracción del tren, conocido como catenaria, es sensible a la acción del viento. De hecho, al igual que ocurre en ciertas estructuras de cables, la interacción entre las fuerzas aerodinámicas no estacionarias y la catenaria puede ocasionar la aparición de oscilaciones de gran amplitud debido al fenómeno de galope. Una forma sencilla de reducir los efectos no deseados de la acción del viento, es la instalación de barreras cortavientos aguas arriba de la zona que se desea proteger. La instalación de estos dispositivos, reduce la velocidad en la estela generada, pero también modifica las propiedades del flujo dentro de la misma. Esta alteración de las condiciones del flujo puede contribuir a la aparición del fenómeno de galope en estructuras caracterizadas por su gran flexibilidad, como la catenaria ferroviaria. Estos dos efectos contrapuestos hacen evidente la importancia de mantener cierta visión global del efecto introducido por la instalación de barreras cortavientos en la plataforma ferroviaria. A lo largo de este documento, se evalúa desde un enfoque multidisciplinar el efecto inducido por las barreras cortavientos en varios subsistemas ferroviarios. Por un lado se analizan las mejoras en la estabilidad lateral del vehículo mediante una serie de ensayos en túnel de viento. La medición de la distribución de presiones en la superficie de un modelo bidimensional de vehículo ferroviario proporciona una buena estimación del nivel de protección que se consigue en función de la altura de una barrera cortavientos. Por otra parte, se analiza la influencia del mismo juego de barreras cortavientos en las características del flujo situado sobre la plataforma ferroviaria, mediante la utilización de anemometría de hilo caliente (HWA) y velocimetría de imágenes de párticulas (PIV). En particular se centra la atención en las características en la posición correspondiente a los hilos conductores de la catenaria. En la última parte del documento, se realiza un análisis simplificado de la aparición oscilaciones en la catenaria, por el efecto de la inestabilidad de galope. La información obtenida sobre las características del flujo se combinan con las propiedades aerodinámicas del hilo de contacto, obtenidas en mediante una serie de ensayos en túnel de viento. De esta manera se realiza una evaluación del riesgo a la aparición de este tipo de inestabilidad aeroeslástica aplicada a una catenaria ferroviaria situada sobre un viaducto tipo. ABSTRACT Wind as an environmental factor may induce undesirable effects on vehicles and structures. The analysis of those effects has caught the attention of several researchers. Concerning the railway system, cross-wind induces aerodynamic loads on rolling stock that may increase the overturning risk of the vehicle, threatening its safe operation. Even the cable system responsible to provide the electric current required for the train traction, known as the railway overhead or catenary, is sensitive to the wind action. In fact, the interaction between the unsteady aerodynamic forces and the railway overhead may trigger the development of undamped oscillations due to galloping phenomena. The inclusion of windbreaks upstream the area that needs wind protection is a simple mean to palliate the undesirable effects caused by the wind action. Although the presence of this wind protection devices reduces the wind speed downstream, they also modify the flow properties inside their wake. This modification on the flow characteristics may ease the apparition of the galloping phenomena on flexible structures, such as the railway overhead. This two opposite effects require to maintain a global perspective on the analysis of the influence of the windbreak presence. In the present document, a multidisciplinary analysis on the effect induced by windbreaks on several railways subsystems is conducted. On the one hand, a set of wind tunnel tests is conducted to assess the improvement on the rolling stock lateral stability. The qualitative estimation of the shelter effect, as function of the windbreak height, is established through the pressure distribution measured on the surface of a two-dimensional train model. On the other hand, the flow properties above the railway platform are assessed using the same set of windbreaks. Two experimental techniques are used to measure the flow properties, hot-wire anemometry (HWA) and particle image velocimetry (PIV). In particular, the attention is focused on the flow characteristics on the contact wire location. A simplified analysis on the catenary oscillations due to galloping phenomena is conducted in the last part of the document. Both, the flow characterization performed via PIV and the aerodynamic properties of the contact wire cross-section are combined. In this manner, the risk of the aeroelastic instabilities on a railway overhead placed on a railway bridge is assessed through a practical application.
Resumo:
La computación con membranas surge como una alternativa a la computación tradicional. Dentro de este campo se sitúan los denominados Sistemas P de Transición que se basan en la existencia de regiones que contienen recursos y reglas que hacen evolucionar a dichos recursos para poder llevar a cada una de las regiones a una nueva situación denominada configuración. La sucesión de las diferentes configuraciones conforman la computación. En este campo, el Grupo de Computación Natural de la Universidad Politécnica de Madrid lleva a cabo numerosas investigaciones al amparo de las cuales se han publicado numerosos artículos y realizado varias tesis doctorales. Las principales vías de investigación han sido, hasta el momento, el estudio del modelo teórico sobre el que se definen los Sistemas P, el estudio de los algoritmos que se utilizan para la aplicación de las reglas de evolución en las regiones, el diseño de nuevas arquitecturas que mejoren las comunicaciones entre las diferentes membranas (regiones) que componen el sistema y la implantación de estos sistemas en dispositivos hardware que pudiesen definir futuras máquinas basadas en este modelo. Dentro de este último campo, es decir, dentro del objetivo de construir finalmente máquinas que puedan llevar a cabo la funcionalidad de la computación con Sistemas P, la presente tesis doctoral se centra en el diseño de dos procesadores paralelos que, aplicando variantes de algoritmos existentes, favorezcan el crecimiento en el nivel de intra-paralelismo a la hora de aplicar las reglas. El diseño y creación de ambos procesadores presentan novedosas aportaciones al entorno de investigación de los Sistemas P de Transición en tanto en cuanto se utilizan conceptos que aunque previamente definidos de manera teórica, no habían sido introducidos en el hardware diseñado para estos sistemas. Así, los dos procesadores mantienen las siguientes características: - Presentan un alto rendimiento en la fase de aplicación de reglas, manteniendo por otro lado una flexibilidad y escalabilidad medias que son dependientes de la tecnología final sobre la que se sinteticen dichos procesadores. - Presentan un alto nivel de intra-paralelismo en las regiones al permitir la aplicación simultánea de reglas. - Tienen carácter universal en tanto en cuanto no depende del carácter de las reglas que componen el Sistema P. - Tienen un comportamiento indeterminista que es inherente a la propia naturaleza de estos sistemas. El primero de los circuitos utiliza el conjunto potencia del conjunto de reglas de aplicación así como el concepto de máxima aplicabilidad para favorecer el intra-paralelismo y el segundo incluye, además, el concepto de dominio de aplicabilidad para determinar el conjunto de reglas que son aplicables en cada momento con los recursos existentes. Ambos procesadores se diseñan y se prueban mediante herramientas de diseño electrónico y se preparan para ser sintetizados sobre FPGAs. ABSTRACT Membrane computing appears as an alternative to traditional computing. P Systems are placed inside this field and they are based upon the existence of regions called “membranes” that contain resources and rules that describe how the resources may vary to take each of these regions to a new situation called "configuration". Successive configurations conform computation. Inside this field, the Natural Computing Group of the Universidad Politécnica of Madrid develops a large number of works and researches that provide a lot of papers and some doctoral theses. Main research lines have been, by the moment, the study of the theoretical model over which Transition P Systems are defined, the study of the algorithms that are used for the evolution rules application in the regions, the design of new architectures that may improve communication among the different membranes (regions) that compose the whole system and the implementation of such systems over hardware devices that may define machines based upon this new model. Within this last research field, this is, within the objective of finally building machines that may accomplish the functionality of computation with P Systems, the present thesis is centered on the design of two parallel processors that, applying several variants of some known algorithms, improve the level of the internal parallelism at the evolution rule application phase. Design and creation of both processors present innovations to the field of Transition P Systems research because they use concepts that, even being known before, were never used for circuits that implement the applying phase of evolution rules. So, both processors present the following characteristics: - They present a very high performance during the application rule phase, keeping, on the other hand, a level of flexibility and scalability that, even known it is not very high, it seems to be acceptable. - They present a very high level of internal parallelism inside the regions, allowing several rule to be applied at the same time. - They present a universal character meaning this that they are not dependent upon the active rules that compose the P System. - They have a non-deterministic behavior that is inherent to this systems nature. The first processor uses the concept of "power set of the application rule set" and the concept of "maximal application" number to improve parallelism, and the second one includes, besides the previous ones, the concept of "applicability domain" to determine the set of rules that may be applied in each moment with the existing resources.. Both processors are designed and tested with the design software by Altera Corporation and they are ready to be synthetized over FPGAs.
Resumo:
El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación de vídeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación de vídeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación de vídeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación de vídeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación de vídeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia de vídeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.
Resumo:
HEVC es el nuevo estándar de codificación de vídeo que está siendo desarrollado conjuntamente por las organizaciones ITU-T Video Coding Experts Group (VCEG) e ISO/IEC Moving Picture Experts Group (MPEG). Su objetivo principal es mejorar la compresión de vídeo, en relación a los actuales estándares. Es común hoy en día, debido a su flexibilidad para aplicaciones de bajo consumo, diseñar sistemas de descodificación de vídeo basados en un procesador digital de señal (DSP). En la mayoría de las veces, los diseños parten de un código creado para ser ejecutado en un ordenador personal y posteriormente se optimizan para tecnología DSP. El objetivo principal de este proyecto es caracterizar el rendimiento de un sistema basado en DSP que ejecute el código de un descodificador de video HEVC. ABSTRACT. HEVC is a new video coding standard which is being developed by both ITU-T Video Coding Experts Group (VCEG) and ISO/IEC Moving Picture Experts Group (MPEG). Its main goal is to improve video compression, compared with the actual standards. It is common practice, because of the flexibility in low power applications, to design video decoding systems using digital signal processors (DSP). Most of the time, these designs start with a code suitable to be executed in personal computers and then it is optimized forDSP technology. The main goal in this final degree project is to characterize the performance of a DSP based system executing an HEVC video decoder.
Resumo:
Este trabajo es una contribución a los sistemas fotovoltaicos (FV) con seguimiento distribuido del punto de máxima potencia (DMPPT), una topología que se caracteriza porque lleva a cabo el MPPT a nivel de módulo, al contrario de las topologías más tradicionales que llevan a cabo el MPPT para un número más elevado de módulos, pudiendo ser hasta cientos de módulos. Las dos tecnologías DMPPT que existen en el mercado son conocidos como microinversores y optimizadores de potencia, y ofrecen ciertas ventajas sobre sistemas de MPPT central como: mayor producción en situaciones de mismatch, monitorización individual de cada módulo, flexibilidad de diseño, mayor seguridad del sistema, etc. Aunque los sistemas DMPPT no están limitados a los entornos urbanos, se ha enfatizado en el título ya que es su mercado natural, siendo difícil una justificación de su sobrecoste en grandes huertas solares en suelo. Desde el año 2010 el mercado de estos sistemas ha incrementado notablemente y sigue creciendo de una forma continuada. Sin embargo, todavía falta un conocimiento profundo de cómo funcionan estos sistemas, especialmente en el caso de los optimizadores de potencia, de las ganancias energéticas esperables en condiciones de mismatch y de las posibilidades avanzadas de diagnóstico de fallos. El principal objetivo de esta tesis es presentar un estudio completo de cómo funcionan los sistemas DMPPT, sus límites y sus ventajas, así como experimentos varios que verifican la teoría y el desarrollo de herramientas para valorar las ventajas de utilizar DMPPT en cada instalación. Las ecuaciones que modelan el funcionamiento de los sistemas FVs con optimizadores de potencia se han desarrollado y utilizado para resaltar los límites de los mismos a la hora de resolver ciertas situaciones de mismatch. Se presenta un estudio profundo sobre el efecto de las sombras en los sistemas FVs: en la curva I-V y en los algoritmos MPPT. Se han llevado a cabo experimentos sobre el funcionamiento de los algoritmos MPPT en situaciones de sombreado, señalando su ineficiencia en estas situaciones. Un análisis de la ventaja del uso de DMPPT frente a los puntos calientes es presentado y verificado. También se presenta un análisis sobre las posibles ganancias en potencia y energía con el uso de DMPPT en condiciones de sombreado y este también es verificado experimentalmente, así como un breve estudio de su viabilidad económica. Para ayudar a llevar a cabo todos los análisis y experimentos descritos previamente se han desarrollado una serie de herramientas software. Una siendo un programa en LabView para controlar un simulador solar y almacenar las medidas. También se ha desarrollado un programa que simula curvas I-V de módulos y generador FVs afectados por sombras y este se ha verificado experimentalmente. Este mismo programa se ha utilizado para desarrollar un programa todavía más completo que estima las pérdidas anuales y las ganancias obtenidas con DMPPT en instalaciones FVs afectadas por sombras. Finalmente, se han desarrollado y verificado unos algoritmos para diagnosticar fallos en sistemas FVs con DMPPT. Esta herramienta puede diagnosticar los siguientes fallos: sombras debido a objetos fijos (con estimación de la distancia al objeto), suciedad localizada, suciedad general, posible punto caliente, degradación de módulos y pérdidas en el cableado de DC. Además, alerta al usuario de las pérdidas producidas por cada fallo y no requiere del uso de sensores de irradiancia y temperatura. ABSTRACT This work is a contribution to photovoltaic (PV) systems with distributed maximum power point tracking (DMPPT), a system topology characterized by performing the MPPT at module level, instead of the more traditional topologies which perform MPPT for a larger number of modules. The two DMPPT technologies available at the moment are known as microinverters and power optimizers, also known as module level power electronics (MLPE), and they provide certain advantages over central MPPT systems like: higher energy production in mismatch situations, monitoring of each individual module, system design flexibility, higher system safety, etc. Although DMPPT is not limited to urban environments, it has been emphasized in the title as it is their natural market, since in large ground-mounted PV plants the extra cost is difficult to justify. Since 2010 MLPE have increased their market share steadily and continuing to grow steadily. However, there still lacks a profound understanding of how they work, especially in the case of power optimizers, the achievable energy gains with their use and the possibilities in failure diagnosis. The main objective of this thesis is to provide a complete understanding of DMPPT technologies: how they function, their limitations and their advantages. A series of equations used to model PV arrays with power optimizers have been derived and used to point out limitations in solving certain mismatch situation. Because one of the most emphasized benefits of DMPPT is their ability to mitigate shading losses, an extensive study on the effects of shadows on PV systems is presented; both on the I-V curve and on MPPT algorithms. Experimental tests have been performed on the MPPT algorithms of central inverters and MLPE, highlighting their inefficiency in I-V curves with local maxima. An analysis of the possible mitigation of hot-spots with DMPPT is discussed and experimentally verified. And a theoretical analysis of the possible power and energy gains is presented as well as experiments in real PV systems. A short economic analysis of the benefits of DMPPT has also been performed. In order to aide in the previous task, a program which simulates I-V curves under shaded conditions has been developed and experimentally verified. This same program has been used to develop a software tool especially designed for PV systems affected by shading, which estimates the losses due to shading and the energy gains obtained with DMPPT. Finally, a set of algorithms for diagnosing system faults in PV systems with DMPPT has been developed and experimentally verified. The tool can diagnose the following failures: fixed object shading (with distance estimation), localized dirt, generalized dirt, possible hot-spots, module degradation and excessive losses in DC cables. In addition, it alerts the user of the power losses produced by each failure and classifies the failures by their severity and it does not require the use of irradiance or temperature sensors.
Resumo:
Actualmente existe un gran interés orientado hacia el mercado del gas natural. Son muchas las razones por las que este combustible se posiciona como uno de los más importantes dentro del panorama energético mundial. Además de que salvaría el hueco dejado por el carbón y el petróleo, supone una alternativa mucho más limpia que se podría desarrollar aún más tanto a nivel doméstico, industrial como en el mundo de los transportes. La industria del gas natural está cambiando rápidamente fundamentalmente por la aparición del gas no convencional y sus técnicas de extracción. Por lo que se está produciendo un cambio en la economía de la producción de gas así como en la dinámica y los movimientos del GNL a lo largo de todo el planeta. El propósito de este estudio es enfocar el estado del sector y mercado del gas natural en todo el mundo y de esta forma subrayar las principales regiones que marcan la tendencia general de los precios de todo el planeta. Además, este trabajo reflejará los pronósticos esperados para los próximos años así como un resumen de las tendencias que se han seguido hasta el momento. Particularmente, se centrará la atención en el movimiento hacia los sistemas basados en forma de hub que comenzaron en EE.UU. y que llegaron a Reino Unido y al continente Europeo a principios del S.XX. Esta tendencia es la que se pretende implantar en España con el fin de conseguir una mayor competitividad, flexibilidad y liquidez en los precios y en el sistema gasista. De esta forma, poco a poco se irá construyendo la estructura hacia un Mercado Único Europeo que es el objetivo final que plantean los organismos de los estados miembros. Sin embargo, para la puesta en marcha de este nuevo modelo es necesario realizar una serie de cambios en el sistema como la modificación de la Ley de Hidrocarburos, la designación de un Operador de Mercado, elaboración de una serie de reglas para regular el mercado así como fomentar la liquidez del mercado. Cuando tenga lugar el cambio regulatorio, la liquidez del sistema español incrementará y se dará la oportunidad de crear nuevas formas para balancear las carteras de gas y establecer nuevas estrategias para gestionar el riesgo. No obstante, antes de que se hagan efectivos los cambios en la legislación, se implantaría uno de los modelos planteados en el “Gas Target Model”, el denominado “Modelo de Asignación de Capacidad Implícita”. La introducción de este modelo sería un primer paso para la integración de un mercado de gas sin la necesidad de afrontar un cambio legislativo, lo que serviría de VIII impulso para alcanzar el “Modelo de Área de Mercado” que sería el mejor para el sistema gasista español y se conectaría ampliamente con el resto de mercados europeos. Las conclusiones del estudio en relación a la formación del nuevo modelo en forma de hub plantean la necesidad de aprovechar al máximo la nueva situación y conseguir implantar el hub lo antes posible para poder dotar al sistema de mayor competencia y liquidez. Además, el sistema español debe aprovechar su gran capacidad y moderna infraestructura para convertir al país en la entrada de gas del suroeste de Europa ampliando así la seguridad de suministro de los países miembros. Otra conclusión que se puede extraer del informe es la necesidad de ampliar el índice de penetración del gas en España e incentivar el consumo frente a otros combustibles fósiles como el carbón y el petróleo. Esto situaría al gas natural como la principal energía de respaldo con respecto a las renovables y permitiría disminuir los precios del kilovatio hora del gas natural. El estudio y análisis de la dinámica que se viene dando en la industria del gas en el mundo es fundamental para poder anticiparse y planear las mejores estrategias frente a los cambios que poco a poco irán modificando el sector y el mercado gasista. ABSTRACT There is a great deal of focus on the natural gas market at the moment. Whether you view natural gas as bridging the gap between coal/oil and an altogether cleaner solution yet to be determined, or as a destination fuel which will be used not only for heating and gas fired generation but also as transportation fuel, there is no doubt that natural gas will have an increasingly important role to play in the global energy landscape. The natural gas industry is changing rapidly, as shale gas exploration changes the economics of gas production and LNG connects regions across the globe. The purpose of this study is to outline the present state of the global gas industry highlighting the differing models around the world. This study will pay particular attention to the move towards hub based pricing that has taken hold first in the US and over the past decade across the UK and Continental Europe. In the coming years the Spanish model will move towards hub based pricing. As gas market regulatory change takes hold, liquidity in the Spanish gas market will increase, bringing with it new ways to balance gas portfolios and placing an increasing focus on managing price risk. This study will in turn establish the links between the changes that have taken place in other markets as a way to better understanding how the Spanish market will evolve in the coming years.
Resumo:
El presente proyecto de fin de carrera esta desarrollado para el explicar el estado actual de las telecomunicaciones en España. Mercado que esta en constante evolución tecnológica y que se ha pasado inicialmente medir por la tasa de penetración de líneas vocales en un país a pasar de hablar de indicadores como la voz IP, descarga de contenidos, uso de los dispositivos ya que el contenido de lo que las redes transporta es donde puede estar el negocio para los operadores.El proyecto de fin de carrera a groso modo está distribuido en dos partes. La primera parte del proyecto, esta enfocado de una manera teórica haciendo una análisis del mercado actual de las telecomunicaciones. Para ello se realiza un primer estudio de los mercados de telecomunicaciones a nivel europeo y en España. Se analiza el sector de las TIC haciendo un repaso por los datos claves obtenidos en el último año y que han sido influenciados por la crisis mundial que vivimos en la actualidad. Detalles de la evolución de los servicios, infraestructuras de nueva generación desplegadas, inversiones y gastos de los operadores así como la cuota de servicio de los mismos. Regulaciones recientes e iniciativas como la Agenda Electrónica Digital para impulsar el crecimiento de la Sociedad de la Información. Investigación sobre la adopción y uso cotidiano de las nuevas tecnologías y dispositivos que hacen los ciudadanos que permiten mejoran nuestras vidas, la productividad de la economía y que será de devenir de las tendencias futuras hacia las que se moverá el mercado. Adicionalmente se plantea cuestiones sobre las tendencias de futuro de las redes de telecomunicaciones, analizando la previsión del volumen de datos creciente a transportar, los mecanismos para aumentar la capacidad, flexibilidad y eficiencia de las redes mediante técnicas como la virtualizacion (SDN).Debido a la experiencia profesional adquirida trabajando en un ISP como es Telefonica de España administrando sus redes y servicios a grandes empresas, profundizare con detalle técnico en estudiar y mostrar como estan montadas sus infraestructuras de red (Red IP Única, NGN, Multiservicio/UNO,…) , los diferentes tipos de accesos a las redes incluyendo los de nueva generación (FTTH) así como el catalogo de servicios ofertados (Macrolan, VPN-IP, Ibercom IP…), principalmente basados RPVs y sus facilidades asociadas sobre las mencionadas redes para las grandes empresas, PYMES y residencial que les permite la comunicación nacional o internacional entre las diferentes emplazamientos de sus oficinas con sus sedes centrales. La segunda parte de este proyecto se describe la implementación de un caso práctico real tanto en tema de configuración y montaje de equipamientos empleados (router,antena 3G…) de una oficina móvil basado en el servicio vpn-ip de Telefonica con acceso móvil 3G que se encuentra en el actual portfolio de sus productos que se explico en teóricamente en la primera parte del proyecto y que tiene conectividad con la red IP Única de la RPV del cliente Caja de Seguros Reunidos (CASER) la cual que nos permitirá conectarnos remotamente a un servidor de monitorización de su intranet ubicada en su sede central de Madrid que muestreara el trafico que se esta cursado por los interfaces del router de la oficina móvil. En la configuración del router se empleara diferentes métodos de conectividad como túneles GRE para la conectividad con los equipos de la red IP Única, LT2P y PPP para el acceso a la red móvil y se dotara de mayor seguridad al trafico cursado por la oficina Mobil empleando túneles IPSEC para la encriptación y cifrado de los datos para evitar que el trafico que va en claro por la red móvil si es interceptado por un tercero no sea capaz de analizarlo y descifrarlo y no se vea afectada la privacidad de la información que estamos transmitiendo.
Resumo:
Este trabajo trata el estudio de la implementación y desarrollo de las diversas plataformas del social media: redes sociales y del conocimiento, blogs y herramientas colaborativas en el ámbito corporativo de la empresa. El estudio recopila información de consultoras tecnológicas, de artículos y de diversas plataformas social media y se realiza una investigación sobre el tema planteado. Se incluye el análisis de 42 encuestas a profesionales de dos grandes empresas de las telecomunicaciones en España. Estas dos empresas cuentan una con cerca de 28000 empleados y la otra con más 300 empleados en sus filiales españolas. Ambas tienen una importante presencia internacional. Estas dos empresa se diferencian de otras empresas del sector de las telecomunicaciones en que están apostando en la implementación del social media en sus procesos internos. Además se incluye el estudio y análisis de las estadísticas de uso y de una series de encuestas realizadas en el muro de la red social corporativa de una multinacional de las telecomunicaciones durante tres meses. Se presenta una nueva cultura social de empresa innovadora en áreas como la gestión del conocimiento, comunicación interna, formación e innovación. Y se ofrece una visión cuantitativa y de la implantación del social media en los procesos de una empresa. Se desarrolla una exposición donde se detalla el proceso de estudio de las diferentes plataformas social media y áreas de aplicación en la empresa, el estudio de los aspectos legales de su aplicación y uso y la implementación y desarrollo. Asimismo se expone un análisis teórico-práctico del cálculo del retorno de la inversión (ROI) y por último un análisis de la información recopilada en las encuestas y en el estudio estadístico de la red social corporativa. Los datos de las encuestas fueron analizados mediante estadística descriptiva basada en gráficos y tablas de contingencia donde se calculan residuos y porcentajes totales para analizar la dependencia entre el social media, eficiencia, productividad y cuenta de resultados, además del análisis de la aportación del social media a la misión, comunicación interna y gestión del conocimiento en la empresa. También se realizan cálculos de distribuciones Chi-cuadrado para demostrar la dependencia del social media-productividad y del GAP que relaciona la importancia y el nivel de satisfacción del social media. En el análisis teórico-práctico se toman como parámetros los beneficios, costes, flexibilidad y riesgo. Los beneficios van ligados a la productividad, gestión del conocimiento, capital humano y procesos internos. Los costes a las licencias de software, administración, implementación y formación. A partir de estos parámetros se realizó el estudio de un modelo de empresa que representa a una gran empresa de las TIC en España. Los datos para el estudio son estimativos dentro de la realidad, debido a que la intención no es saber estos valores reales sino el estudio teórico-práctico del método y su aplicación para el calculo del ROI. El estudio estadístico del la red social se realizo durante tres meses y se obtuvo el progreso de uso de la red social en eventos tales como: número de participantes activos, mensajes publicados, archivos subidos, grupos activos y tipos y plataformas de acceso. Del estudio de los datos estadísticos de estos eventos se obtuvieron indicadores de participación, actividad y conocimiento de la red social que son útiles par el calculo del ROI. En conclusión, se demuestran las mejoras que ofrece el social media en campos como la comunicación interna, gestión del conocimiento, formación e innovación. Y gracias a estas mejoras el aumento de la productividad y eficiencia del profesional y asimismo un potencial retorno de la inversión (ROI). ABSTRACT. This paper deals with the study of the implementation and development of the different platforms of social media: social networks and knowledge, blogs and collaborative tools in the corporate enterprise level. The study collects information technology consulting, articles and several social media platforms and an investigation into the question raised is performed. Analysis of 42 surveys of professionals from two big companies telecommunications in Spain are included. These two companies have one about 28000 employees and another with more than 300 employees at its Spanish subsidiaries. Both have a strong international presence. These two companies differ from other companies in the telecommunications sector they are betting in the implementation of social media in their internal processes. Furthermore, the study and analysis of usage statistics and a series of surveys on the wall of the corporate social network of a multinational telecommunications is included for three months. A new social culture enterprise is presented innovative in areas such as knowledge management, internal communications, training and innovation. And a quantitative vision into implementation of social media in the processes of a company is offered. They develops an exhibition where shown the process of studying the different social media platforms and application areas in the company, the study of the legal aspects of your application and use and implementation and development. A theoretical and practical analysis also exposed of calculation of return on investment (ROI) and finally an analysis of the information collected in surveys and statistical study of corporate social network. The survey data were analyzed using descriptive statistics based on graphs and contingency tables where waste and total percentages are calculated for analyze the dependence between the social media, efficiency, productivity and income statement, plus analysis of the contribution of social media on the mission, internal communication and knowledge management in the company. Also Calculations of chi-square distributions are conducted to demonstrate the dependence between of productivity and social media and the GAP that relates the importance and satisfaction level in social media. The theoretical and practical analysis parameters are the benefits, costs, flexibility and risk. The benefits are linked to productivity, knowledge management, human capital and internal processes. The costs are linked the software licensing, management, implementation and training. Based on these parameters was performed the study of a business model that represents a large ICT company in Spain. The data for the study are estimates within the reality, because the intention is not to know these real values but the theoretical and practical study and application of the method for calculating the ROI. Statistical analysis of the social network was made during or three months and was obtained the progress of social network use at events such as: number of active participants, messages posted, files uploaded, active groups and types and access platforms. Into study of statistical data of these events were obtained indicators of participation, activity and knowledge of the social network that are useful for calculating the ROI. In conclusion, the improvements offered by the social media in areas such as internal communication, knowledge management, training and innovation are shown. And thanks to these improvements increase the productivity and efficiency of professional and also a potential return on investment (ROI).
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
Ocasionalmente en los problemas de ingeniería se requiere conocer la distribución de temperatura dentro de estructuras sólidas, la cual puede obtenerse haciendo un estudio de transferencia de calor por conducción. Aunque existen distintos métodos, actualmente la mayoría de estos estudios se realizan usando el método numérico, debido a su flexibilidad, rapidez y a que la obtención de la solución analítica es demasiado compleja o imposible en algunos casos. En estos estudios es común despreciar la variación de la conductividad térmica con la temperatura. En este artículo se muestra, para un caso particular en dos dimensiones, por un lado, la precisión de los resultados obtenidos usando el método numérico, y por otro lado, que la dependencia de la conductividad térmica con la temperatura puede afectar en forma importante la precisión de los resultados, por lo cual es necesario ser cuidadosos al considerarla constante.
Resumo:
La extensión alcanzada por las redes de ordenadores ha provocado la aparición y extensión de Sistemas Operativos Distribuidos (SSOODD) [158], como alternativa de futuro a los Sistemas Operativos centralizados. El enfoque más común para la construcción de Sistemas Operativos Distribuidos [158] consiste en la realización de servicios distribuidos sobre un μkernel centralizado encargado de operar en cada uno de los nodos de la red (μkernel servicios distribuidos). Esta estrategia entorpece la distribución del sistema y conduce a sistemas no adaptables debido a que los μkernels empleados suministran abstracciones alejadas del hardware. Por otro lado, los Sistemas Operativos Distribuidos todavía no han alcanzando niveles de transparencia, flexibilidad, adaptabilidad y aprovechamiento de recursos comparables a los existentes en Sistemas Centralizados [160]. Conviene pues explorar otras alternativas, en la construcción de dichos sistemas, que permitan paliar esta situación. Esta tesis propone un enfoque radicalmente diferente en la construcción de Sistemas Operativos Distribuidos: distribuir el sistema justo desde el nivel inferior haciendo uso de un μkernel distribuido soportando abstracciones próximas al hardware. Nuestro enfoque podría resumirse con la frase Construyamos Sistemas Operativos basados en un μkernel distribuido en lugar de construir Sistemas Operativos Distribuidos basados en un μkernel. Afirmamos que con el enfoque propuesto (μkernel distribuido adaptable servicios) se podrían conseguir importantes ventajas [148] con respecto al enfoque habitual (μkernel servicios distribuidos): más transparencia, mejor aprovechamiento de los recursos, sistemas m´as flexibles y mayores cotas de adaptabilidad; sistemas más eficientes, fiables y escalables.
Resumo:
El artículo presenta una formulación sencilla que permite obtener los seis primeros períodos propios de vibración de una presa bóveda simétrica diseñada según las recomendaciones del U.S. Bureau of Reclamation. Se indican las expresiones polinómicas aproximadas de estos períodos, tanto para embalse vacío como para embalse lleno. El efecto del embalse se modeliza mediante la técnica de Westergaard modificada. Asimismo se indica una expresión que intenta tener en cuenta, de modo tentativo, el efecto de la flexibilidad del terreno
Resumo:
El continuo crecimiento de la demanda del transporte aéreo, junto con los nuevos escenarios de intervención militar, están obligando a una optimización en el uso del espacio aéreo. De este modo, la UE y los EEUU (a través de SESAR y NextGen respectivamente) han asentado las bases para una nueva gestión del tráfico aéreo (ATM). Con ello, se pretende aumentar la capacidad de aeropuertos y rutas aéreas, otorgando mayor flexibilidad al uso del espacio aéreo sin comprometer la seguridad de los usuarios. Desde un punto de vista puramente técnico, la clave de este cambio de modelo está en el conocimiento de la posición de cada aeronave en cada instante. En este sentido, la tendencia en ATM es el uso de ADS-B como fuente principal de posicionamiento. Sin embargo, debido a que este sistema está basado en la difusión de la posición obtenida a través de GPS, es necesario un sistema de seguimiento independiente. Actualmente, la intención es migrar del radar secundario de vigilancia (SSR) a la multilateración de área extensa (WAM), con el fin de mejorar la integridad de la posición para aplicaciones en ruta. Aprovechando el rápido despliegue de ADS-B, se pretende reutilizar sus estaciones base para WAM. Cada estación base que recibe el mensaje ADS-B de la aeronave envía conjuntamente la medida del tiempo de llegada (TOA) de dicho mensaje al centro de tráfico aéreo. La posición de la aeronave se obtiene mediante multilateración, cuya técnica consiste en utilizar las medidas de TOA de un mismo mensaje ADS-B obtenidas en las distintas estaciones base. El objetivo es estimar la posición de cada aeronave con la mayor precisión posible. Para poder diseñar el sistema que permite alcanzar este objetivo, son dos los aspectos básicos a estudiar. Por una parte, la identificación y posterior caracterización de los errores (tanto sistemáticos como aleatorios) que afectan a la medida de TOA. Por otra parte, es necesario el estudio de los sistemas de seguimiento, basados en versiones sofisticadas del filtro de Kalman (IMM, UKF). Una vez establecidos estos dos pilares, la presente tesis doctoral propone un sistema que permite efectuar el seguimiento de las aeronaves, corrigiendo los efectos de las principales distorsiones que afectan a la medida de TOA: la refracción troposférica y el error de sincronismo. La mejora en la precisión de la localización ha sido evaluada mediante simulación de escenarios hipotéticos. ABSTRACT The ever-growing demand in the air transportation and the new military intervention scenarios, are generating a need to optimize the use of the airspace. This way, the EU and the USA (through SESAR and NextGen respectively) have set the ground to overhaul the current air traffic management. The intention is to enhance the capacity of airports and air routes, providing greater flexibility in the use of airspace without jeopardizing the security of the end-users. From a technical perspective, the key for this change lies in the knowledge of the aircraft position. The trend in Air Traffic Management (ATM) is to rely on ADS-B as the main source for aircraft positioning. However, this system is based on the aircraft’s self-declaration of its own (often GPS-based) navigation solution. It is therefore necessary to have an independent surveillance system. Nowadays, the intention is to gradually migrate from Secondary Surveillance Radar (SSR) towards Wide Area Multilateration (WAM) in order to enhance surveillance integrity for en-route applications. Given the fast deployment of ADS-B, the aim is to use its base stations for WAM. Each station sends the Time of Arrival (TOA) of the received ADS-B messages to the air traffic center (ATC). The aircraft position is obtained through multilateration, using the TOA of the same message measured by each station. The aim is to accurately estimate the position of each aircraft. Knowledge from two key areas has to be gathered prior to designing such a system. It is necessary to identify and then characterize the errors (both systematic and random) affecting the TOA measurements. The second element is the study of tracking systems based on sophisticated versions of the Kalman filtering (e.g. IMM, UKF). Based on this knowledge, the main contribution of this Ph.D. is an aircraft tracking system that corrects the effects of the main errors involved in the TOA measurement: tropospheric refraction and synchronization issues. Performance gains in positioning accuracy have been assessed by simulating hypothetical WAM scenarios.