14 resultados para characteristic time
em Universidad Politécnica de Madrid
Resumo:
Estudio del tiempo en que un fenotipo alcanza un estado estacionario
Resumo:
We study the evolution of a finite size population formed by mutationally isolated lineages of error-prone replicators in a two-peak fitness landscape. Computer simulations are performed to gain a stochastic description of the system dynamics. More specifically, for different population sizes, we compute the probability of each lineage being selected in terms of their mutation rates and the amplification factors of the fittest phenotypes. We interpret the results as the compromise between the characteristic time a lineage takes to reach its fittest phenotype by crossing the neutral valley and the selective value of the sequences that form the lineages. A main conclusion is drawn: for finite population sizes, the survival probability of the lineage that arrives first to the fittest phenotype rises significantly
Resumo:
Cognitive neuroscience boils down to describing the ways in which cognitive function results from brain activity. In turn, brain activity shows complex fluctuations, with structure at many spatio-temporal scales. Exactly how cognitive function inherits the physical dimensions of neural activity, though, is highly non-trivial, and so are generally the corresponding dimensions of cognitive phenomena. As for any physical phenomenon, when studying cognitive function, the first conceptual step should be that of establishing its dimensions. Here, we provide a systematic presentation of the temporal aspects of task-related brain activity, from the smallest scale of the brain imaging technique's resolution, to the observation time of a given experiment, through the characteristic time scales of the process under study. We first review some standard assumptions on the temporal scales of cognitive function. In spite of their general use, these assumptions hold true to a high degree of approximation for many cognitive (viz. fast perceptual) processes, but have their limitations for other ones (e.g., thinking or reasoning). We define in a rigorous way the temporal quantifiers of cognition at all scales, and illustrate how they qualitatively vary as a function of the properties of the cognitive process under study. We propose that each phenomenon should be approached with its own set of theoretical, methodological and analytical tools. In particular, we show that when treating cognitive processes such as thinking or reasoning, complex properties of ongoing brain activity, which can be drastically simplified when considering fast (e.g., perceptual) processes, start playing a major role, and not only characterize the temporal properties of task-related brain activity, but also determine the conditions for proper observation of the phenomena. Finally, some implications on the design of experiments, data analyses, and the choice of recording parameters are discussed.
Resumo:
Use of propulsion systems that couple electyrodynamic tethers to ion thrusters, as suggested in the literature, is discussed. The system establishes electrical contact with the ionospheric plasma, at the anodic end of the tether, by ejecting ions instead of collecting electrons; also, the ion thruster adds its thrust to the Lorentz force on the tether. In this paper, we analyze the performance of this coupled system, as measured by the ratio of mission impulse (thrust times mission duration) to the overall system mass, which includes the power subsystem mass, the tether subsystem mass, and the propellant mass consumed in the ion thruster. It is shown that a tether acting by itself, collecting electrons at its anodic end, substantially outperforms the coupled system for times longer than a characteristic time of the ion thruster, for which propellant mass equals the power subsystem mass; for shorter times performances are shown to be similar.
Resumo:
The behaviour of confined liquids on board an orbiting spacecraft is mainly driven by surface tension phenomena, which cause an apparently anomalous response of the liquid when compared with the behaviour that can be observed on an Earth laboratory provided that the amount of liquid is high enough. The reason is that in an orbiting spacecraft the different inertial forces acting on the bulk of the liquid are almost zero, causing thus capillary forces to be the dominant ones. Of course, since gravity forces are proportional to the liquid volume, whereas surface tension forces are proportional to the liquid surface, there are situations on Earth where capillarity can be the dominant effect, as it happens when very small volume liquid samples are considered. However, work with small size samples may require the use of sophisticated optical devices. Leaving aside the neutral buoyancy technique, a way of handling large liquid interfaces is by using drop towers, where the sample falls subjected to the action of Earth's gravity. This approach is suitable when the characteristic time of the problem under consideration is much smaller than the drop time. In this work the transformation of an out-of-use chimney into a drop tower is presented. Because of the miniaturization, hardiness and low cost of current electronic devices, a drop tower can be used as an inexpensive tool for undergraduate students to experimentally analyse a large variety of surface tension driven phenomena.
Resumo:
The group vaporization of a monodisperse fuel-spray jet discharging into a hot coflowing gaseous stream is investigated for steady flow by numerical and asymptotic methods with a two-continua formulation used for the description of the gas and liquid phases. The jet is assumed to be slender and laminar, as occurs when the Reynolds number is moderately large, so that the boundary-layer form of the conservation equations can be employed in the analysis. Two dimensionless parameters are found to control the flow structure, namely the spray dilution parameter 1, defined as the mass of liquid fuel per unit mass of gas in the spray stream, and the group vaporization parameter e, defined as the ratio of the characteristic time of spray evolution due to droplet vaporization to the characteristic diffusion time across the jet. It is observed that, for the small values of e often encountered in applications, vaporization occurs only in a thin layer separating the spray from the outer droplet-free stream. This regime of sheath vaporization, which is controlled by heat conduction, is amenable to a simplified asymptotic description, independent of ε,in which the location of the vaporization layer is determined numerically as a free boundary in a parabolic problem involving matching of the separate solutions in the external streams, with appropriate jump conditions obtained from analysis of the quasi-steady vaporization front. Separate consideration of dilute and dense sprays, corresponding, respectively, to the asymptotic limits λ<<1 and λ>>1, enables simplified descriptions to be obtained for the different flow variables, including explicit analytic expressions for the spray penetration distance.
Resumo:
La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.
Resumo:
Theoretical models for the thermal response of vertical geothermal boreholes often assume that the characteristic time of variation of the heat injection rate is much larger than the characteristic diffusion time across the borehole. In this case, heat transfer inside the borehole and in its immediate surroundings is quasi-steady in the first approximation, while unsteady effects enter only in the far field. Previous studies have exploited this disparity of time scales, incorporating approximate matching conditions to couple the near-borehole region with the outer unsteady temperatura field. In the present work matched asymptotic expansion techniques are used to analyze the heat transfer problem, delivering a rigorous derivation of the true matching condition between the two regions and of the correct definition of the network of thermal resistances that represents the quasi-steady solution near the borehole. Additionally, an apparent temperature due to the unsteady far field is identified that needs to be taken into account by the near-borehole region for the correct computation of the heat injection rate. This temperature differs from the usual mean borehole temperature employed in the literatura.
Resumo:
The pressure variation inside the launch vehicle fairing during climb through the atmosphere induces structural loads on the walls of closed-type spacecrafts or equipment boxes. If the evacuation of the air is not fast enough, excessive pressure loading can result in damage of elements exposed to the rising pressure jump, which depends mainly on the geometry of venting holes, the effective volume of air to be evacuated, and the characteristic time of pressure variation under the fairing. A theoretical study of the reservoir discharge forced by the fairing time-dependent pressure variation is presented. The basic mathematical model developed can yield both a numerical solution for the pressure jump and an asymptotic solution for the most relevant case, the small-prcssurc-jump limit, showing the dependence on a single nondimensional parameter: the ratio of the reservoir discharge to the fairing pressure profile characteristic times. The asymptotic solution validity range upper limit, obtained by comparison with the numerical solution, is determined by the starting of choked operation. Very high sensitivity of the maximum pressure jump to the ratio of characteristic times has been observed. Another relevant finding is that the pressure profiles for different launchers can be considered similar when rewritten in appropriate form and only their characteristic times are required for the analysis. The simple expressions of the asymptotic solution are a useful tool for preliminarily sizing the reservoir discharge geometry and estimating depressurization loads
Resumo:
We study the first passage statistics to adsorbing boundaries of a Brownian motion in bounded two-dimensional domains of different shapes and configurations of the adsorbing and reflecting boundaries. From extensive numerical analysis we obtain the probability P(ω) distribution of the random variable ω=τ1/(τ1+τ2), which is a measure for how similar the first passage times τ1 and τ2 are of two independent realizations of a Brownian walk starting at the same location. We construct a chart for each domain, determining whether P(ω) represents a unimodal, bell-shaped form, or a bimodal, M-shaped behavior. While in the former case the mean first passage time (MFPT) is a valid characteristic of the first passage behavior, in the latter case it is an insufficient measure for the process. Strikingly we find a distinct turnover between the two modes of P(ω), characteristic for the domain shape and the respective location of absorbing and reflective boundaries. Our results demonstrate that large fluctuations of the first passage times may occur frequently in two-dimensional domains, rendering quite vague the general use of the MFPT as a robust measure of the actual behavior even in bounded domains, in which all moments of the first passage distribution exist.
Resumo:
We introduce a second order in time modified Lagrange--Galerkin (MLG) method for the time dependent incompressible Navier--Stokes equations. The main ingredient of the new method is the scheme proposed to calculate in a more efficient manner the Galerkin projection of the functions transported along the characteristic curves of the transport operator. We present error estimates for velocity and pressure in the framework of mixed finite elements when either the mini-element or the $P2/P1$ Taylor--Hood element are used.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
The water time constant and mechanical time constant greatly influences the power and speed oscillations of hydro-turbine-generator unit. This paper discusses the turbine power transients in response to different nature and changes in the gate position. The work presented here analyses the characteristics of hydraulic system with an emphasis on changes in the above time constants. The simulation study is based on mathematical first-, second-, third- and fourth-order transfer function models. The study is further extended to identify discrete time-domain models and their characteristic representation without noise and with noise content of 10 & 20 dB signal-to-noise ratio (SNR). The use of self-tuned control approach in minimising the speed deviation under plant parameter changes and disturbances is also discussed.
Resumo:
El estudio del comportamiento de la atmósfera ha resultado de especial importancia tanto en el programa SESAR como en NextGen, en los que la gestión actual del tránsito aéreo (ATM) está experimentando una profunda transformación hacia nuevos paradigmas tanto en Europa como en los EE.UU., respectivamente, para el guiado y seguimiento de las aeronaves en la realización de rutas más eficientes y con mayor precisión. La incertidumbre es una característica fundamental de los fenómenos meteorológicos que se transfiere a la separación de las aeronaves, las trayectorias de vuelo libres de conflictos y a la planificación de vuelos. En este sentido, el viento es un factor clave en cuanto a la predicción de la futura posición de la aeronave, por lo que tener un conocimiento más profundo y preciso de campo de viento reducirá las incertidumbres del ATC. El objetivo de esta tesis es el desarrollo de una nueva técnica operativa y útil destinada a proporcionar de forma adecuada y directa el campo de viento atmosférico en tiempo real, basada en datos de a bordo de la aeronave, con el fin de mejorar la predicción de las trayectorias de las aeronaves. Para lograr este objetivo se ha realizado el siguiente trabajo. Se han descrito y analizado los diferentes sistemas de la aeronave que proporcionan las variables necesarias para obtener la velocidad del viento, así como de las capacidades que permiten la presentación de esta información para sus aplicaciones en la gestión del tráfico aéreo. Se ha explorado el uso de aeronaves como los sensores de viento en un área terminal para la estimación del viento en tiempo real con el fin de mejorar la predicción de las trayectorias de aeronaves. Se han desarrollado métodos computacionalmente eficientes para estimar las componentes horizontales de la velocidad del viento a partir de las velocidades de las aeronaves (VGS, VCAS/VTAS), la presión y datos de temperatura. Estos datos de viento se han utilizado para estimar el campo de viento en tiempo real utilizando un sistema de procesamiento de datos a través de un método de mínima varianza. Por último, se ha evaluado la exactitud de este procedimiento para que esta información sea útil para el control del tráfico aéreo. La información inicial proviene de una muestra de datos de Registradores de Datos de Vuelo (FDR) de aviones que aterrizaron en el aeropuerto Madrid-Barajas. Se dispuso de datos de ciertas aeronaves durante un periodo de más de tres meses que se emplearon para calcular el vector viento en cada punto del espacio aéreo. Se utilizó un modelo matemático basado en diferentes métodos de interpolación para obtener los vectores de viento en áreas sin datos disponibles. Se han utilizado tres escenarios concretos para validar dos métodos de interpolación: uno de dos dimensiones que trabaja con ambas componentes horizontales de forma independiente, y otro basado en el uso de una variable compleja que relaciona ambas componentes. Esos métodos se han probado en diferentes escenarios con resultados dispares. Esta metodología se ha aplicado en un prototipo de herramienta en MATLAB © para analizar automáticamente los datos de FDR y determinar el campo vectorial del viento que encuentra la aeronave al volar en el espacio aéreo en estudio. Finalmente se han obtenido las condiciones requeridas y la precisión de los resultados para este modelo. El método desarrollado podría utilizar los datos de los aviones comerciales como inputs utilizando los datos actualmente disponibles y la capacidad computacional, para proporcionárselos a los sistemas ATM donde se podría ejecutar el método propuesto. Estas velocidades del viento calculadas, o bien la velocidad respecto al suelo y la velocidad verdadera, se podrían difundir, por ejemplo, a través del sistema de direccionamiento e informe para comunicaciones de aeronaves (ACARS), mensajes de ADS-B o Modo S. Esta nueva fuente ayudaría a actualizar la información del viento suministrada en los productos aeronáuticos meteorológicos (PAM), informes meteorológicos de aeródromos (AIRMET), e información meteorológica significativa (SIGMET). ABSTRACT The study of the atmosphere behaviour is been of particular importance both in SESAR and NextGen programs, where the current air traffic management (ATM) system is undergoing a profound transformation to the new paradigms both in Europe and the USA, respectively, to guide and track aircraft more precisely on more efficient routes. Uncertainty is a fundamental characteristic of weather phenomena which is transferred to separation assurance, flight path de-confliction and flight planning applications. In this respect, the wind is a key factor regarding the prediction of the future position of the aircraft, so that having a deeper and accurate knowledge of wind field will reduce ATC uncertainties. The purpose of this thesis is to develop a new and operationally useful technique intended to provide adequate and direct real-time atmospheric winds fields based on on-board aircraft data, in order to improve aircraft trajectory prediction. In order to achieve this objective the following work has been accomplished. The different sources in the aircraft systems that provide the variables needed to derivate the wind velocity have been described and analysed, as well as the capabilities which allow presenting this information for air traffic management applications. The use of aircraft as wind sensors in a terminal area for real-time wind estimation in order to improve aircraft trajectory prediction has been explored. Computationally efficient methods have been developed to estimate horizontal wind components from aircraft velocities (VGS, VCAS/VTAS), pressure, and temperature data. These wind data were utilized to estimate a real-time wind field using a data processing approach through a minimum variance method. Finally, the accuracy of this procedure has been evaluated for this information to be useful to air traffic control. The initial information comes from a Flight Data Recorder (FDR) sample of aircraft landing in Madrid-Barajas Airport. Data available for more than three months were exploited in order to derive the wind vector field in each point of the airspace. Mathematical model based on different interpolation methods were used in order to obtain wind vectors in void areas. Three particular scenarios were employed to test two interpolation methods: a two-dimensional one that works with both horizontal components in an independent way, and also a complex variable formulation that links both components. Those methods were tested using various scenarios with dissimilar results. This methodology has been implemented in a prototype tool in MATLAB © in order to automatically analyse FDR and determine the wind vector field that aircraft encounter when flying in the studied airspace. Required conditions and accuracy of the results were derived for this model. The method developed could be fed by commercial aircraft utilizing their currently available data sources and computational capabilities, and providing them to ATM system where the proposed method could be run. Computed wind velocities, or ground and true airspeeds, would then be broadcasted, for example, via the Aircraft Communication Addressing and Reporting System (ACARS), ADS-B out messages, or Mode S. This new source would help updating the wind information furnished in meteorological aeronautical products (PAM), meteorological aerodrome reports (AIRMET), and significant meteorological information (SIGMET).