18 resultados para Distributed Generator, Network Loss, Primal-Dual Interior Point Algorithm, Sitting and Sizing

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las redes son la esencia de comunidades y sociedades humanas; constituyen el entramado en el que nos relacionamos y determinan cómo lo hacemos, cómo se disemina la información o incluso cómo las cosas se llevan a cabo. Pero el protagonismo de las redes va más allá del que adquiere en las redes sociales. Se encuentran en el seno de múltiples estructuras que conocemos, desde las interaciones entre las proteínas dentro de una célula hasta la interconexión de los routers de internet. Las redes sociales están presentes en internet desde sus principios, en el correo electrónico por tomar un ejemplo. Dentro de cada cliente de correo se manejan listas contactos que agregadas constituyen una red social. Sin embargo, ha sido con la aparición de los sitios web de redes sociales cuando este tipo de aplicaciones web han llegado a la conciencia general. Las redes sociales se han situado entre los sitios más populares y con más tráfico de la web. Páginas como Facebook o Twitter manejan cifras asombrosas en cuanto a número de usuarios activos, de tráfico o de tiempo invertido en el sitio. Pero las funcionalidades de red social no están restringidas a las redes sociales orientadas a contactos, aquellas enfocadas a construir tu lista de contactos e interactuar con ellos. Existen otros ejemplos de sitios que aprovechan las redes sociales para aumentar la actividad de los usuarios y su involucración alrededor de algún tipo de contenido. Estos ejemplos van desde una de las redes sociales más antiguas, Flickr, orientada al intercambio de fotografías, hasta Github, la red social de código libre más popular hoy en día. No es una casualidad que la popularidad de estos sitios web venga de la mano de sus funcionalidades de red social. El escenario es más rico aún, ya que los sitios de redes sociales interaccionan entre ellos, compartiendo y exportando listas de contactos, servicios de autenticación y proporcionando un valioso canal para publicitar la actividad de los usuarios en otros sitios web. Esta funcionalidad es reciente y aún les queda un paso hasta que las redes sociales superen su condición de bunkers y lleguen a un estado de verdadera interoperabilidad entre ellas, tal como funcionan hoy en día el correo electrónico o la mensajería instantánea. Este trabajo muestra una tecnología que permite construir sitios web con características de red social distribuída. En primer lugar, se presenta una tecnología para la construcción de un componente intermedio que permite proporcionar cualquier característica de gestión de contenidos al popular marco de desarrollo web modelo-vista-controlador (MVC) Ruby on Rails. Esta técnica constituye una herramienta para desarrolladores que les permita abstraerse de las complejidades de la gestión de contenidos y enfocarse en las particularidades de los propios contenidos. Esta técnica se usará también para proporcionar las características de red social. Se describe una nueva métrica de reusabilidad de código para demostrar la validez del componente intermedio en marcos MVC. En segundo lugar, se analizan las características de los sitios web de redes sociales más populares, con el objetivo de encontrar los patrones comunes que aparecen en ellos. Este análisis servirá como base para definir los requisitos que debe cumplir un marco para construir redes sociales. A continuación se propone una arquitectura de referencia que proporcione este tipo de características. Dicha arquitectura ha sido implementada en un componente, Social Stream, y probada en varias redes sociales, tanto orientadas a contactos como a contenido, en el contexto de una asociación vecinal tanto como en proyectos de investigación financiados por la UE. Ha sido la base de varios proyectos fin de carrera. Además, ha sido publicado como código libre, obteniendo una comunidad creciente y está siendo usado más allá del ámbito de este trabajo. Dicha arquitectura ha permitido la definición de un nuevo modelo de control de acceso social que supera varias limitaciones presentes en los modelos de control de acceso para redes sociales. Más aún, se han analizado casos de estudio de sitios de red social distribuídos, reuniendo un conjunto de caraterísticas que debe cumplir un marco para construir redes sociales distribuídas. Por último, se ha extendido la arquitectura del marco para dar cabida a las características de redes sociales distribuídas. Su implementación ha sido validada en proyectos de investigación financiados por la UE. Abstract Networks are the substance of human communities and societies; they constitute the structural framework on which we relate to each other and determine the way we do it, the way information is diseminated or even the way people get things done. But network prominence goes beyond the importance it acquires in social networks. Networks are found within numerous known structures, from protein interactions inside a cell to router connections on the internet. Social networks are present on the internet since its beginnings, in emails for example. Inside every email client, there are contact lists that added together constitute a social network. However, it has been with the emergence of social network sites (SNS) when these kinds of web applications have reached general awareness. SNS are now among the most popular sites in the web and with the higher traffic. Sites such as Facebook and Twitter hold astonishing figures of active users, traffic and time invested into the sites. Nevertheless, SNS functionalities are not restricted to contact-oriented social networks, those that are focused on building your own list of contacts and interacting with them. There are other examples of sites that leverage social networking to foster user activity and engagement around other types of content. Examples go from early SNS such as Flickr, the photography related networking site, to Github, the most popular social network repository nowadays. It is not an accident that the popularity of these websites comes hand-in-hand with their social network capabilities The scenario is even richer, due to the fact that SNS interact with each other, sharing and exporting contact lists and authentication as well as providing a valuable channel to publize user activity in other sites. These interactions are very recent and they are still finding their way to the point where SNS overcome their condition of data silos to a stage of full interoperability between sites, in the same way email and instant messaging networks work today. This work introduces a technology that allows to rapidly build any kind of distributed social network website. It first introduces a new technique to create middleware that can provide any kind of content management feature to a popular model-view-controller (MVC) web development framework, Ruby on Rails. It provides developers with tools that allow them to abstract from the complexities related with content management and focus on the development of specific content. This same technique is also used to provide the framework with social network features. Additionally, it describes a new metric of code reuse to assert the validity of the kind of middleware that is emerging in MVC frameworks. Secondly, the characteristics of top popular SNS are analysed in order to find the common patterns shown in them. This analysis is the ground for defining the requirements of a framework for building social network websites. Next, a reference architecture for supporting the features found in the analysis is proposed. This architecture has been implemented in a software component, called Social Stream, and tested in several social networks, both contact- and content-oriented, in local neighbourhood associations and EU-founded research projects. It has also been the ground for several Master’s theses. It has been released as a free and open source software that has obtained a growing community and that is now being used beyond the scope of this work. The social architecture has enabled the definition of a new social-based access control model that overcomes some of the limitations currenly present in access control models for social networks. Furthermore, paradigms and case studies in distributed SNS have been analysed, gathering a set of features for distributed social networking. Finally the architecture of the framework has been extended to support distributed SNS capabilities. Its implementation has also been validated in EU-founded research projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We use an automatic weather station and surface mass balance dataset spanning four melt seasons collected on Hurd Peninsula Glaciers, South Shetland Islands, to investigate the point surface energy balance, to determine the absolute and relative contribution of the various energy fluxes acting on the glacier surface and to estimate the sensitivity of melt to ambient temperature changes. Long-wave incoming radiation is the main energy source for melt, while short-wave radiation is the most important flux controlling the variation of both seasonal and daily mean surface energy balance. Short-wave and long-wave radiation fluxes do, in general, balance each other, resulting in a high correspondence between daily mean net radiation flux and available melt energy flux. We calibrate a distributed melt model driven by air temperature and an expression for the incoming short-wave radiation. The model is calibrated with the data from one of the melt seasons and validated with the data of the three remaining seasons. The model results deviate at most 140 mm w.e. from the corresponding observations using the glaciological method. The model is very sensitive to changes in ambient temperature: a 0.5 ◦ C increase results in 56 % higher melt rates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The deviation of calibration coefficients from five cup anemometer models over time was analyzed. The analysis was based on a series of laboratory calibrations between January 2001 and August 2010. The analysis was performed on two different groups of anemometers: (1) anemometers not used for any industrial purpose (that is, just stored); and (2) anemometers used in different industrial applications (mainly in the field—or outside—applications like wind farms). Results indicate a loss of performance of the studied anemometers over time. In the case of the unused anemometers the degradation shows a clear pattern. In the case of the anemometers used in the field, the data analyzed also suggest a loss of performance, yet the degradation does not show a clear trend. A recalibration schedule is proposed based on the observed performances variations

Relevância:

100.00% 100.00%

Publicador:

Resumo:

By 2050 it is estimated that the number of worldwide Alzheimer?s disease (AD) patients will quadruple from the current number of 36 million people. To date, no single test, prior to postmortem examination, can confirm that a person suffers from AD. Therefore, there is a strong need for accurate and sensitive tools for the early diagnoses of AD. The complex etiology and multiple pathogenesis of AD call for a system-level understanding of the currently available biomarkers and the study of new biomarkers via network-based modeling of heterogeneous data types. In this review, we summarize recent research on the study of AD as a connectivity syndrome. We argue that a network-based approach in biomarker discovery will provide key insights to fully understand the network degeneration hypothesis (disease starts in specific network areas and progressively spreads to connected areas of the initial loci-networks) with a potential impact for early diagnosis and disease-modifying treatments. We introduce a new framework for the quantitative study of biomarkers that can help shorten the transition between academic research and clinical diagnosis in AD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la Comunidad de Madrid el modelo de ocupación del territorio en las dos últimas décadas ha obedecido a factores de oferta del mercado y no a las necesidades de la población, ello provoca un consumo de suelo y de recursos que conducen a una sobrexplotación insostenible. Las metrópolis globales están experimentando rápidas e intensas transformaciones, basadas en los paradigmas emergentes de la globalización, la gobernanza, la metropolizacion y la dispersión de las actividades en el territorio y a través de ellos se abordan los planes de Londres, París y las tentativas de Madrid. La globalización provoca la pérdida de soberanía de las administraciones publicas y la competitividad entre las ciudades globales en Europa, Londres, Paris y Madrid, son centros de poder, de concentración y crecimiento donde se produce la dualización del espacio y donde la desigualdad participa de la restructuración urbana, concentración de pobreza frente a espacios de la nueva clase emergente en donde dominan los sectores de servicios y las tecnologías de la información. Frente al desarrollo urbano neoliberal de regulación a través del mercado y basada en criterios de eficiencia de la Nueva Gestión Pública, se vislumbra la posibilidad de que la sociedad se administre a si misma por medio de acciones voluntarias y responsables que promuevan los intereses colectivos mediante el reconocimiento de su propia identidad, introduciendo el concepto de gobernanza. Frente, a la explotación del territorio por parte de la sociedad extractiva que genera corrupcion, se propone un modelo de cooperación público-privada basado en la confianza mutua, un marco regulador estable, la transparencia y la información a cuyo flujo más homogéneo contribuirán sin duda las TICs. En todo este proceso, las regiones metropolitanas en Europa se erigen como motores del crecimiento, donde los límites administrativos son superados, en un territorio cada vez más extendido y donde los gobiernos locales tienen que organizarse mediante un proceso de cooperación en la provisión de servicios que ayuden a evitar los desequilibrios territoriales. El fenómeno de la dispersión urbana en desarrollos de baja densidad, los centros comerciales periféricos, la expulsión hacia la periferia de las actividades de menor valor añadido y la concentración de funciones directivas en el centro, conducen a una fragmentación del territorio en islas dependientes del automóvil y a procesos de exclusión social por la huida de las rentas altas y la expulsión de las rentas bajas de los centros urbanos. Se crean fragmentos monofuncionales y discontinuos, apoyados en las autovías, lugares carentes de identidad y generadores de despilfarro de recursos y una falta de sostenibilidad ambiental, económica y social. El estudio de la cultura de la planificación en Europa ayuda a comprender los diferentes enfoques en la ordenación del territorio y el proceso de convergencia entre las diferentes regiones. Los documentos de la UE se basan en la necesidad de la competitividad para el crecimiento europeo y la cohesión social y en relación al territorio en los desarrollos policéntricos, la resolución del dualismo campo-ciudad, el acceso equilibrado a las infraestructuras, la gestión prudente de la naturaleza, el patrimonio y el fomento de la identidad. Se proponen dos niveles de estudio uno actual, los últimos planes de Londres y Paris y el otro la evolución de las tentativas de planes en la Región madrileña siempre en relación a los paradigmas emergentes señalados y su reflejo en los documentos. El Plan de Londres es estratégico, con una visión a largo plazo, donde se confiere un gran interés al proceso, al papel del alcalde como líder y su adaptación a las circunstancias cambiantes, sujeto a las incertidumbres de una ciudad global. El desarrollo del mismo se concibe a través de la colaboración y cooperación entre las administraciones y actores. La estructura del documento es flexible, establece orientaciones y guías indicativas, para la redacción de los planes locales, no siendo las mismas vinculantes y con escasa representación grafica. El Plan de París es más un plan físico, similar al de otros centros europeos, trabaja sobre los sectores y sobre los territorios, con información extensa, con características de “Plan Latino” por la fuerza de la expresión gráfica, pero al mismo tiempo contiene una visión estratégica. Es vinculante en sus determinaciones y normativas, se plantea fomentar, pero también prohibir. Ambos planes tratan la competitividad internacional de sus centros urbanos, la igualdad social, la inclusión de todos los grupos sociales y la vivienda como una cuestión de dignidad humana. Londres plantea la gobernanza como cooperación entre sector público-privado y la necesaria cooperación con las regiones limítrofes, en París las relaciones están más institucionalizadas resaltando la colaboración vertical entre administraciones. Ambos plantean la densificación de nodos servidos por transporte público, modos blandos y el uso los TODs y la preservación de la infraestructura verde jerarquizada, la potenciación de la red azul y la mejora del paisaje de las periferias. En las “tentativas” de planes territoriales de Madrid se constata que estuvieron sujetas a los ciclos económicos. El primer Documento las DOT del año 1984, no planteaba crecimiento, ni económico ni demográfico, a medio plazo y por ello no proponía una modificación del modelo radio concéntrico. Se trataba de un Plan rígido volcado en la recuperación del medio rural, de la ciudad, el dimensionamiento de los crecimientos en función de las dotaciones e infraestructuras existentes. Aboga por la intervención de la administración pública y la promoción del pequeño comercio. Destaca el desequilibrio social en función de la renta, la marginación de determinados grupos sociales, el desequilibrio residencia/empleo y la excesiva densidad. Incide en la necesidad de viviendas para los más desfavorecidos mediante el alquiler, la promoción suelo público y la promoción del ferrocarril para dar accesibilidad al espacio central. Aboga por el equipamiento de proximidad y de pequeño tamaño, el tratamiento paisajístico de los límites urbanos de los núcleos y el control de las actividades ilegales señalando orientaciones para el planeamiento urbano. Las Estrategias (1989) contienen una visión: la modificación del modelo territorial, mediante la intervención pública a través de proyectos. Plantea la reestructuración económica del territorio, la reconversión del aparato productivo, la deslocalización de actividades de escaso valor añadido y una mayor ubicuidad de la actividad económica. Incide en la difusión de la centralidad hacia el territorio del sur, equilibrándolo con el norte, tratando de recomponer empleo y residencia, integrando al desarrollo económico las periferias entre sí y con el centro. Las actuaciones de transporte consolidarían las actuaciones, modificando el modelo radio concéntrico facilitando la movilidad mediante la red de cercanías y la intermodalidad. El plan se basaba en el liderazgo del Consejero, no integrando sectores como el medio ambiente, ni estableciendo un documento de seguimiento de las actuaciones que evaluara los efectos de las políticas y su aportación al equilibrio territorial, a través de los proyectos realizados. El Documento Preparatorio de las Bases (1995), es más de un compendio o plan de planes, recoge análisis y propuestas de los documentos anteriores y de planes sectoriales de otros departamentos. Presenta una doble estructura: un plan físico integrador clásico, que abarca los sectores y territorios, y recoge las Estrategias previas añadiendo puntos fuertes, como el malestar urbano y la rehabilitación el centro. Plantea la consecución del equilibrio ambiental mediante el crecimiento de las ciudades existentes, la vertebración territorial basada en la movilidad y en la potenciación de nuevas centralidades, la mejora de la habitabilidad y rehabilitación integral del Centro Urbano de Madrid, y la modernización del tejido productivo existente. No existe una idea-fuerza que aglutine todo el documento, parte del reconocimiento de un modelo existente concentrado y congestivo, un centro urbano dual y dos periferias al este y sur con un declive urbano y obsolescencia productiva y al oeste y norte con una dispersión que amenaza al equilibrio medioambiental. Señala como aspectos relevantes, la creciente polarización y segregación social, la deslocalización industrial, la aparición de las actividades de servicios a las empresas instaladas en las áreas metropolitanas, y la dispersión de las actividades económicas en el territorio por la banalización del uso del automóvil. Se plantea el reto de hacer ciudad de la extensión suburbana y su conexión con el sistema metropolitano, mediante una red de ciudades integrada y complementaria, en búsqueda de un mayor equilibrio y solidaridad territorial. Las Bases del PRET (1997) tenían como propósito iniciar el proceso de concertación en que debe basarse la elaboración del Plan. Parte de la ciudad mediterránea compacta, y diversa, y de la necesidad de que las actividades económicas, los servicios y la residencia estén en proximidad, resolviéndolo mediante una potente red de transporte público que permitiese una accesibilidad integrada al territorio. El flujo de residencia hacia la periferia, con un modelo ajeno de vivienda unifamiliar y la concentración del empleo en el centro producen desequilibrio territorial. Madrid manifiesta siempre apostó por la densificación del espacio central urbanizado, produciendo su congestión, frente al desarrollo de nuevos suelos que permitieran su expansión territorial. Precisa que es necesario preservar los valores de centralidad de Madrid, como generador de riqueza, canalizando toda aquella demanda de centralidad, hacia espacios más periféricos. El problema de la vivienda no lo ve solo como social, sino como económico, debido a la pérdida de empleos que supone su paralización. Observa ya los crecimientos residenciales en el borde de la region por el menor valor del suelo. Plantea como la política de oferta ha dado lugar a un modelo de crecimiento fragmentado, desequilibrado, desestructurado, con fuertes déficits dotacionales y de equipamiento, que inciden en la segregación espacial de las rentas, agravando el proceso de falta de identidad morfológica y de desarraigo de los valores urbanos. El plan señalaba que la presión sobre el territorio creaba su densificación por las limitaciones de espacio, Incidía en limitar el peso de la intervención pública, no planteando propuestas de cooperación público-privado. La mayor incoherencia estriba en que los objetivos eran innovadores y coinciden en su mayoría con las propuestas estudiadas de Londres o Paris, pero se intentan implementar a través de un cambio hacia un modelo reticulado homogéneo, expansivo sobre el territorio, que supone un consumo de suelo y de infraestructuras para solucionar un problema inexistente, la gestión de la densidad. Durante las dos últimas décadas en ausencia de un plan regional, la postura neoliberal fue la de un exclusivo control de legalidad del planeamiento, los municipios entraron en un proceso de competencia para aprovechar las iniciales ventajas económicas de los crecimientos detectados, que proporcionaban una base económica “sólida” a unos municipios con escasos recursos en sus presupuestos municipales. La legislación se modifica a requerimiento de grupos interesados, no existiendo un marco estable. Se pierde la figura del plan no solo a nivel regional, si no en los sectores y el planeamiento municipal donde los municipios tiende a basarse en modificaciones puntuales con la subsiguiente pérdida del modelo urbanístico. La protección ambiental se estructura mediante un extenso nivel de figuras, con diversidad de competencias que impide su efectiva protección y control. Este proceso produce un despilfarro en la ocupación del suelo, apoyada en las infraestructuras viarias, y un crecimiento disperso y de baja densidad, cada vez más periférico, produciéndose una segmentación social por dualización del espacio en función de niveles de renta. Al amparo del boom inmobiliario, se produce una falta de política social de vivienda pública, más basada en la dinamización del mercado con producción de viviendas para rentas medias que en políticas de alquiler para determinados grupos concentrándose estas en los barrios desfavorecidos y en la periferia sur. Se produce un incremento de la vivienda unifamiliar, muchas veces amparada en políticas públicas, la misma se localiza en el oeste principalmente, en espacios de valor como el entorno del Guadarrama o con viviendas más baratas por la popularización de la tipología en la frontera de la Región. El territorio se especializa a modo de islas monofuncionales, las actividades financieras y de servicios avanzados a las empresas se localizan en el norte y oeste próximo, se pierde actividad industrial que se dispersa más al sur, muchas veces fuera de la región. Se incrementan los grandes centros comerciales colgados de las autovías y sin población en su entorno. Todo este proceso ha provocado una pérdida de utilización del transporte público y un aumento significativo del uso del vehículo privado. En la dos últimas décadas se ha producido en la región de Madrid desequilibrio territorial y segmentación social, falta de implicación de la sociedad en el territorio, dispersión del crecimiento y un incremento de los costes ambientales, sociales y económicos, situación, que solo, a través del uso racional del territorio se puede reconducir, apoyado en una planificación integrada sensible y participativa. ABSTRACT In Madrid the model of land occupation in the past two decades has been driven by market supply factors rather than the needs of the population. This results in a consumption of land and resources that leads to unsustainable overexploitation. Addressing this issue must be done through sensitive and participatory integrated planning. Global cities are experiencing rapid and intense change based on the emerging paradigms of globalization, governance, metropolization and the dispersion of activities in the territory. Through this context, a closer look will be taken at the London and Paris plans as well as the tentative plans of Madrid. Globalization causes the loss of state sovereignty and the competitiveness among global cities in Europe; London, Paris and Madrid. These are centres of power, concentration and growth where the duality of space is produced, and where inequality plays a part in urban restructuration. There are concentrated areas of poverty versus areas with a new emerging class where the services sector and information technologies are dominant. The introduction of ICTs contributes to a more homogeneous flow of information leading, us to the concept of governance. Against neoliberal urban development based on free market regulations and efficiency criteria as established by the “New Public Management”, emerge new ways where society administers itself through voluntary and responsible actions to promote collective interests by recognizing their own identity. A new model of public-private partnerships surfaces that is based on mutual trust, transparency, information and a stable regulatory framework in light of territorial exploitation by the “extractive society” that generates corruption. Throughout this process, European metropolitan regions become motors of growth where administrative boundaries are overcome in an ever expanding territory where government is organized through cooperative processes to provide services that protect against regional imbalances. Urban sprawl or low-density development as seen in peripheral shopping centres, the off-shoring of low added-value activities to the periphery, and the concentration of business and top management functions in the centre, leads to a fragmentation of the territory in automobile dependent islands and a process of social exclusion brought on by the disappearance of high incomes. Another effect is the elimination of low income populations from urban centres. In consequence, discontinuous expansions and mono-functional places that lack identity materialize supported by a highway network and high resource consumption. Studying the culture of urban planning in Europe provides better insight into different approaches to spatial planning and the process of convergence between different regions. EU documents are based on the need of competitiveness for European growth and social cohesion. In relation to polycentric development territory they are based on a necessity to solve the dualism between field and city, balanced access to infrastructures, prudent management of nature and solidifying heritage and identity Two levels of study unfold, the first being the current plans of London and Île-de-France and the second being the evolution of tentative plans for the Madrid region as related to emerging paradigms and how this is reflected in documents. The London Plan is strategic with a long-term vision that focuses on operation, the role of the mayor as a pivotal leader, and the adaptability to changing circumstances brought on by the uncertainties of a global city. Its development is conceived through collaboration and cooperation between governments and stakeholders. The document structure is flexible, providing guidance and indicative guidelines on how to draft local plans so they are not binding, and it contains scarce graphic representation. The Plan of Paris takes on a more physical form and is similar to plans of other European centres. It emphasizes sectors and territories, using extensive information, and is more characteristic of a “Latin Plan” as seen in its detailed graphic expression. However, it also contains a strategic vision. Binding in its determinations and policy, it proposes advancement but also prohibition. Both plans address the international competitiveness of urban centres, social equality, inclusion of all social groups and housing as issues of human dignity. London raises governance and cooperation between public and private sector and the need for cooperation with neighbouring regions. In Paris, the relations are more institutionalized highlighting vertical collaboration between administrations. Both propose nodes of densification served by public transportation, soft modes and the use of TOD, the preservation of a hierarchical green infrastructure, and enhancing the landscape in urban peripheries. The tentative territorial plans for the Madrid region provide evidence that they were subject to economic cycles. The first document of master guidelines (1984) does not address either economic or demographic growth in the mid term and therefore does not propose the modification of the radio-concentric model. It is a rigid plan focused on rural and urban recovery and the dimensioning of growth that depends on endowments and infrastructures. It advocates government intervention and promotes small business. The plan emphasizes social imbalance in terms of income, marginalization of certain social groups, the imbalance of residence/employment and excessive density. It stresses the need for social rent housing for the underprivileged, promotes public land, and the supports rail accessibility to the central area. It backs facilities of proximity and small size, enhancing the landscaping of city borders, controlling illegal activities and draws out guidelines for urban planning. The strategies (1989) contain a vision: Changing the territorial model through public intervention by means of projects. They bring to light economic restructuring of territory, the reconversion of the productive apparatus, relocation of low value-added activities, and greater ubiquity of economic activity. They also propose the diffusion of centrality towards southern territories, balancing it with the north in an attempt to reset employment and residence that integrates peripheral economic development both in the periphery and the centre. Transport would consolidate the project, changing the radius-concentric model and facilitating mobility through a commuter and inter-modality network. The plan derives itself from the leadership of the minister and does not integrate sectors such as environment. It also does not incorporate the existence of a written document that monitors performance to evaluate the effects of policies and their contribution to the territorial balance. The Preparatory Document of the Bases, (1995) is more a compendium, or plan of plans, that compiles analysis and proposals from previous documents and sectorial plans from other departments. It has a dual structure: An integrating physical plan covering the sectors and territories that includes the previous strategies while adding some strengths. One such point is the urban discomfort and the rehabilitation of the centre. It also poses the achievement of environmental balance through the growth of existing cities, the territorial linking based on mobility, strengthening new centres, improving the liveability and comprehensive rehabilitation of downtown Madrid, and the modernization of the existing production network. There is no one powerful idea that binds this document. This is due to the recognition of an existing concentrate and congestive model, a dual urban centre, two eastern and southern suburbs suffering from urban decay, and an obsolescent productive north and west whose dispersion threatens the environmental balance. Relevant aspects the document highlights are increasing polarization and social segregation, industrial relocation, the emergence of service activities to centralized companies in metropolitan areas and the dispersion of economic activities in the territory by the trivialization of car use. It proposes making the city from the suburban sprawl and its connection to the metropolitan system through a network of integrated and complementary cities in search of a better balance and territorial solidarity. The Bases of PRET (1997) aims to start the consultation process that must underpin the development of the plan. It stems from a compact and diverse Mediterranean city along with the need for economic activities, services and residences that are close. To resolve the issue, it presents a powerful network of public transport that allows integrated accessibility to the territory. The flow of residence to the periphery based on a foreign model of detached housing and an employment concentration in the centre produces territorial imbalance. Madrid always opted for the densification of the central space, producing its congestion, against the development of new land that would allow its territorial expansion. The document states that the necessity to preserve the values of the housing problem is not only viewed as social, but also economic due to the loss of jobs resulting from their paralysis. It notes the residential growth in the regional border due to the low price of land and argues that the policy of supply has led to a fragmented model of growth that is unbalanced, unstructured, with strong infrastructure and facility deficits that affect the spatial segregation of income and aggravate the lack of morphological identity, uprooting urban values. The pressure on the territory caused its densification due to space limitation; the proposed grid model causes land consumption and infrastructure to solve a non-problem, density. Focusing on limiting the weight of public intervention, it does not raise proposals for public-private cooperation. The biggest discrepancy is that the targets were innovative and mostly align with the proposals in London and Paris. However, it proposes to be implemented through a shift towards a uniform gridded model that is expansive over territory. During the last two decades, due to the absence of a regional plan, a neoliberal stance held exclusive control of the legality of urban planning. The municipalities entered a competition process to take advantage of initial economic benefits of such growth. This provided a “solid” economic base for some municipalities with limited resources in their municipal budgets. The law was amended without a legal stable framework at the request of stakeholders. The character of the plan is lost not only regionally, but also in the sectors and municipal planning. This tends to be based on specific changes with the loss of an urban model. Environmental protection is organized through an extensive number of protection figures with diverse competencies that prevent its effective protection. This process squanders the use of the land, backed by increasing road infrastructure, dispersed occupations with low-density growth causing a social segmentation due to space duality based on income levels. During the housing boom, there is a reduction in social public housing policy mostly due to a boost in the market of housing production for average incomes than in rental policies for needy social groups that focus on disadvantaged neighbourhoods and southern suburbs. As a result, there is an increase in single-family housing, often protected by public policy. This is located primarily in the west in areas of high environmental value such as Guadarrama. There is also cheaper housing due to the popularization of typology in the border region. There, territory works as a mono-functional islands. Financial activities and advanced services for companies are located to the north and west where industrial activity is lost as it migrates south, often outside the region. The number of large shopping centres hanging off the highway infrastructure with little to no surrounding population increases. This process leads to the loss of dependency on public transport and a significant increase in the use of private vehicles. The absence of regional planning has produced more imbalance, more social segmentation, more dispersed growth and a lot of environmental, social and economic costs that can only be redirected through rational territorial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many of the emerging telecom services make use of Outer Edge Networks, in particular Home Area Networks. The configuration and maintenance of such services may not be under full control of the telecom operator which still needs to guarantee the service quality experienced by the consumer. Diagnosing service faults in these scenarios becomes especially difficult since there may be not full visibility between different domains. This paper describes the fault diagnosis solution developed in the MAGNETO project, based on the application of Bayesian Inference to deal with the uncertainty. It also takes advantage of a distributed framework to deploy diagnosis components in the different domains and network elements involved, spanning both the telecom operator and the Outer Edge networks. In addition, MAGNETO features self-learning capabilities to automatically improve diagnosis knowledge over time and a partition mechanism that allows breaking down the overall diagnosis knowledge into smaller subsets. The MAGNETO solution has been prototyped and adapted to a particular outer edge scenario, and has been further validated on a real testbed. Evaluation of the results shows the potential of our approach to deal with fault management of outer edge networks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present the design of a distributed object system for Prolog, based on adding remote execution and distribution capabilities to a previously existing object system. Remote execution brings RPC into a Prolog system, and its semantics is easy to express in terms of well-known Prolog builtins. The final distributed object design features state mobility and user-transparent network behavior. We sketch an implementation which provides distributed garbage collection and some degree of tolerance to network failures. We provide a preliminary study of the overhead of the communication mechanism for some test cases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

High-resolution monochromated electron energy loss spectroscopy (EELS) at subnanometric spatial resolution and <200 meV energy resolution has been used to assess the valence band properties of a distributed Bragg reflector multilayer heterostructure composed of InAlN lattice matched to GaN. This work thoroughly presents the collection of methods and computational tools put together for this task. Among these are zero-loss-peak subtraction and nonlinear fitting tools, and theoretical modeling of the electron scattering distribution. EELS analysis allows retrieval of a great amount of information: indium concentration in the InAlN layers is monitored through the local plasmon energy position and calculated using a bowing parameter version of Vegard Law. Also a dielectric characterization of the InAlN and GaN layers has been performed through Kramers-Kronig analysis of the Valence-EELS data, allowing band gap energy to be measured and an insight on the polytypism of the GaN layers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we describe the development of a control system for Demand-Side Management in the residential sector with Distributed Generation. The electrical system under study incorporates local PV energy generation, an electricity storage system, connection to the grid and a home automation system. The distributed control system is composed of two modules: a scheduler and a coordinator, both implemented with neural networks. The control system enhances the local energy performance, scheduling the tasks demanded by the user and maximizing the use of local generation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study a cognitive radio scenario in which the network of sec- ondary users wishes to identify which primary user, if any, is trans- mitting. To achieve this, the nodes will rely on some form of location information. In our previous work we proposed two fully distributed algorithms for this task, with and without a pre-detection step, using propagation parameters as the only source of location information. In a real distributed deployment, each node must estimate its own po- sition and/or propagation parameters. Hence, in this work we study the effect of uncertainty, or error in these estimates on the proposed distributed identification algorithms. We show that the pre-detection step significantly increases robustness against uncertainty in nodes' locations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fatiga superficial es uno de los principales problemas en las transmisiones mecánicas y es uno de los focos de atención de las investigaciones de los últimos anos en Tribología. La disminución de viscosidad de los lubricantes para la mejora de la eficiencia, el aumento de las potencias a transmitir, el aumento de la vida de los componentes o la mejora de su fiabilidad han supuesto que los fenómenos de fatiga superficial hayan cobrado especial relevancia, especialmente los fenómenos de pitting y micropitting en cajas multiplicadoras/reductoras de grandes potencias de aplicación, por ejemplo, en el sector eólico. Como todo fenómeno de fatiga, el pitting y micropitting son debidos a la aplicación de cargas ciclicas. Su aparición depende de las presiones y tensiones cortantes en el contacto entre dos superficies que al encontrarse en rodadura y deslizamiento varian con el tiempo. La principal consecuencia de la fatiga superficial es la aparición de hoyuelos de diferente magnitud segun la escala del fenómeno (pitting o micropitting) en la superficie del material. La aparición de estos hoyuelos provoca la perdida de material, induce vibraciones y sobrecargas en el elemento que finalmente acaba fallando. Debido a la influencia de la presión y tensión cortante en el contacto, la aparición de fatiga depende fuertemente del lubricante que se encuentre entre las dos superficies y de las condiciones de funcionamiento en las cuales este trabajando. Cuando el contacto trabaja en condiciones de lubricacion mixta-elastohidrodinamica tiende a aparecer micropitting debido a las altas tensiones localizadas en las proximidades de las asperezas, mientras que si el régimen es de lubricación completa el tipo de fatiga superficial suele ser pitting debido a las tensiones mas suavizadas y menos concentradas. En esta Tesis Doctoral se han analizado todos estos factores de influencia que controlan el pitting y el micropitting prestando especial atención al efecto del lubricante. Para ello, se ha dado un enfoque conjunto a ambos fenómenos resolviendo las ecuaciones involucradas en el contacto elastohidrodinamico no-Newtoniano (la ecuación de Reynolds, la deformación elástica de los sólidos y la reologia del lubricante) para conocer la presión y la tensión cortante en el contacto. Conocidas estas, se resuelve el campo de tensiones en el interior del material y, finalmente, se aplican criterios de fatiga multiaxial (Crossland, Dang Van y Liu-Mahadevan) para conocer si el material falla o no falla. Con la metodología desarrollada se ha analizado el efecto sobre las tensiones y la aparición de la fatiga superficial del coeficiente viscosidad-presion, de la compresibilidad, del espesor especifico de película y de la fricción así como de la influencia de las propiedades a fatiga del material y de las condiciones de funcionamiento (radios de contacto, velocidad, deslizamiento, carga y temperatura). Para la validación de los resultados se han utilizado resultados teóricos y experimentales de otros autores junto con normas internacionales de amplia utilización en el mundo industrial, entre otras, para el diseño y calculo de engranajes. A parte del trabajo realizado por simulación y cálculo de los diferentes modelos desarrollados, se ha realizado un importante trabajo experimental que ha servido no solo para validar la herramienta desarrollada sino que además ha permitido incorporar al estudio factores no considerados en los modelos, como los aditivos del lubricante. Se han realizado ensayos de medida del coeficiente de fricción en una maquina de ensayo puntual con la que se ha validado el cálculo del coeficiente de fricción y se ha desarrollado un proceso de mejora del coeficiente de fricción mediante texturizado superficial en contactos puntuales elastohidrodinamicos mediante fotolitografia y ataque quimico. Junto con los ensayos de medida de fricción en contacto puntual se han realizado ensayos de fricción y fatiga superficial en contacto lineal mediante una maquina de discos que ha permitido evaluar la influencia de diferentes aditivos (modificadores de fricción, antidesgaste y extrema-presion) en la aparición de fatiga superficial (pitting y micropitting) y la fricción en el contacto. Abstract Surface fatigue is one of the most important problems of mechanical transmissions and therefore has been one of the main research topics on Tribology during the last years. On the one hand, industrial demand on fuel economy has led to reduce lubricant viscosity in order to improve efficiency. On the other hand, the requirements of power and life of machine elements are continuously increasing, together with the improvements in reliability. As a consequence, surface fatigue phenomena have become critical in machinery, in particular pitting and micropitting in high power gearboxes of every kind of machines, e.g., wind turbines or cranes. In line with every fatigue phenomena, pitting and micropitting are caused by cyclic loads. Their appearance depends on the evolution of pressures and shear stresses with time, throughout the contact between surfaces under rolling and sliding conditions. The main consequence of surface fatigue is the appearance of pits on the surface. The size of the pits is related to the scale of the fatigue: pitting or micropitting. These pits cause material loss, vibrations and overloads until the final failure is reached. Due to the great influence of the pressures and shear stresses in surface fatigue, the appearance of pits depends directly on the lubricant and the operating conditions. When the contact works under mixed regime (or under elastohydrodynamic but close to mixed regime) the main fatigue failure is micropitting because of the high pressures located near the asperities. In contrast, when the contact works under elastohydrodynamic fully flooded conditions the typical fatigue failure is pitting. In this Ph.D. Thesis, the main factors with influence on pitting and micropitting phenomena are analyzed, with special attention to the effect of the lubricant. For this purpose, pitting and micropitting are studied together by solving the equations involved in the non-Newtonian elastohydrodynamic contact. Thus, pressure and shear stress distributions are found by taking into account Reynolds equation, elastic deflection of the solids and lubricant rheology. Subsequently, the stress field inside the material can be calculated and different multiaxial fatigue criteria (Crossland, Dang Van and Liu- Mahadevan) can be applied to predict whether fatigue failure is reached. The influences of the main parameters on pressure and surface fatigue have been studied, taking into account the lubricant compressibility and its viscosity-pressure coefficient, the specific film thickness, the friction coefficient and the fatigue properties of the contacting materials, together with the operating conditions (contact radius, mean velocity, sliding velocity, load and temperature). Several theoretical and experimental studies of different authors have been used to validate all the results obtained, together with international standards used worldwide in gear design industry. Moreover, an experimental stage has been carried out in order to validate the calculation methods and introduce additional influences not included previously, e.g., lubricant additives. The experimentation includes different friction tests in point contacts performed with a tribological equipment in order to validate the results given by the calculations. Furthermore, the reduction and optimization of the friction coefficient is analyzed by means of textured surfaces, obtained combining photolithography and chemical etching techniques. Besides the friction tests with point contact, friction and surface fatigue tests have also been performed with line contact in a tribological test rig. This equipment is also used to study the influence of different types of additives (friction modifiers, anti-wear and extreme-pressure additives) on surface fatigue (pitting and micropitting).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis estudia la evolución estructural de conjuntos de neuronas como la capacidad de auto-organización desde conjuntos de neuronas separadas hasta que forman una red (clusterizada) compleja. Esta tesis contribuye con el diseño e implementación de un algoritmo no supervisado de segmentación basado en grafos con un coste computacional muy bajo. Este algoritmo proporciona de forma automática la estructura completa de la red a partir de imágenes de cultivos neuronales tomadas con microscopios de fase con una resolución muy alta. La estructura de la red es representada mediante un objeto matemático (matriz) cuyos nodos representan a las neuronas o grupos de neuronas y los enlaces son las conexiones reconstruidas entre ellos. Este algoritmo extrae también otras medidas morfológicas importantes que caracterizan a las neuronas y a las neuritas. A diferencia de otros algoritmos hasta el momento, que necesitan de fluorescencia y técnicas inmunocitoquímicas, el algoritmo propuesto permite el estudio longitudinal de forma no invasiva posibilitando el estudio durante la formación de un cultivo. Además, esta tesis, estudia de forma sistemática un grupo de variables topológicas que garantizan la posibilidad de cuantificar e investigar la progresión de las características principales durante el proceso de auto-organización del cultivo. Nuestros resultados muestran la existencia de un estado concreto correspondiente a redes con configuracin small-world y la emergencia de propiedades a micro- y meso-escala de la estructura de la red. Finalmente, identificamos los procesos físicos principales que guían las transformaciones morfológicas de los cultivos y proponemos un modelo de crecimiento de red que reproduce el comportamiento cuantitativamente de las observaciones experimentales. ABSTRACT The thesis analyzes the morphological evolution of assemblies of living neurons, as they self-organize from collections of separated cells into elaborated, clustered, networks. In particular, it contributes with the design and implementation of a graph-based unsupervised segmentation algorithm, having an associated very low computational cost. The processing automatically retrieves the whole network structure from large scale phase-contrast images taken at high resolution throughout the entire life of a cultured neuronal network. The network structure is represented by a mathematical object (a matrix) in which nodes are identified neurons or neurons clusters, and links are the reconstructed connections between them. The algorithm is also able to extract any other relevant morphological information characterizing neurons and neurites. More importantly, and at variance with other segmentation methods that require fluorescence imaging from immunocyto- chemistry techniques, our measures are non invasive and entitle us to carry out a fully longitudinal analysis during the maturation of a single culture. In turn, a systematic statistical analysis of a group of topological observables grants us the possibility of quantifying and tracking the progression of the main networks characteristics during the self-organization process of the culture. Our results point to the existence of a particular state corresponding to a small-world network configuration, in which several relevant graphs micro- and meso-scale properties emerge. Finally, we identify the main physical processes taking place during the cultures morphological transformations, and embed them into a simplified growth model that quantitatively reproduces the overall set of experimental observations.