945 resultados para Complex variable theory
Conflito e cooperação na Bacia do Prata em relação aos cursos d'água internacionais (de 1966 a 1992)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Matemática Universitária - IGCE
Resumo:
Nowadays the studies of different methodologies to interfere in the growing and spread of serious infections and systemic status in institutionalized patients those kept on intensive therapy units are relevant to understanding these complex systems and bring benefits to several health areas, particularly public health. In this study, it was analyzed the clinical and microbiological data from patients hospitalized in intensive therapy units. The interaction between patients and caregivers was modeled and analyzed using dynamic system model and complex network theory, identifying outbreaks values of microorganisms of Enterobacteriaceae Family.
Resumo:
Knowing which individuals can be more efficient in spreading a pathogen throughout a determinate environment is a fundamental question in disease control. Indeed, over recent years the spread of epidemic diseases and its relationship with the topology of the involved system have been a recurrent topic in complex network theory, taking into account both network models and real-world data. In this paper we explore possible correlations between the heterogeneous spread of an epidemic disease governed by the susceptible-infected-recovered (SIR) model, and several attributes of the originating vertices, considering Erdos-Renyi (ER), Barabasi-Albert (BA) and random geometric graphs (RGG), as well as a real case study, the US air transportation network, which comprises the 500 busiest airports in the US along with inter-connections. Initially, the heterogeneity of the spreading is achieved by considering the RGG networks, in which we analytically derive an expression for the distribution of the spreading rates among the established contacts, by assuming that such rates decay exponentially with the distance that separates the individuals. Such a distribution is also considered for the ER and BA models, where we observe topological effects on the correlations. In the case of the airport network, the spreading rates are empirically defined, assumed to be directly proportional to the seat availability. Among both the theoretical and real networks considered, we observe a high correlation between the total epidemic prevalence and the degree, as well as the strength and the accessibility of the epidemic sources. For attributes such as the betweenness centrality and the k-shell index, however, the correlation depends on the topology considered.
Resumo:
En el estudio buscamos caracterizar el análisis de la SOSTENIBILIDAD (Suficiencia) del CICLO DE VIDA de una INFRAESTRUCTURA AEROPORTUARIA centrándonos en la evaluación de los aspectos SOCIALES (de forma Interdisciplinaria o Transversal) que le afectan y considerando todos los AGENTES involucrados (ingenieros/ operadores/ mantenedores/ usuarios/ stakeholders/ etc.). La complejidad de las interacciones entre los edificios y su entorno hace que sea difícil definir y evaluar con precisión la sostenibilidad de un edificio. Las NORMAS AMBIENTALES para la construcción (unas pocas existentes y algunos en fase de desarrollo) se centran en la sostenibilidad ECONÓMICA, SOCIAL Y AMBIENTAL que caracteriza a un edificio, siendo los aspectos socio-económicos difíciles de evaluar. En consecuencia, los métodos existentes para la evaluación de la construcción sostenible (por ejemplo, LEED, BREEAM, SBTool) tienden a superar los aspectos ambientales pues son más fáciles de evaluar de manera cuantitativa. Así desde el punto de vista holístico (global) y utilizando la teoría de sistemas complejos, la sostenibilidad debe ser evaluada, en parte, utilizando los INDICADORES DE SOSTENIBILIDAD SOCIALES Y ECONÓMICOS para cubrir todos los factores de Sostenibilidad. El estudio propone una metodología para valorar la sostenibilidad en la construcción aeroportuaria a través de la evaluación de los indicadores sostenibles de la construcción (SKPIs) sin y superando las carencias presentadas. Para ello hemos implementado una herramienta de evaluación de la sostenibilidad, donde: Puede evaluar, en primer aproximación e independientemente, la sostenibilidad del CICLO DE VIDA de la INFRAESTRUCTURA AEROPORTUARIA Puede COMPLETAR otras herramientas comerciales disponibles (ej. BREEAM, LEED), bajo un enfoque ECONÓMICO-SOCIAL y complementando el enfoque ambiental La evaluación de los KPIs se realiza por medio de TECNOLOGÍAS Y ESTRATEGIAS SOSTENIBLES, cuya aplicación supondría un aumento de la sostenibilidad del edificio La herramienta propuesta considera la complejidad y transdisciplinariedad del problema, fundada en un SISTEMA DE CRÉDITOS fácil de usar. Así el programa diseñado permite el análisis y la comparación del CICLO DE VIDA de la INFRAESTRUCTURA AEROPORTUARIA: Abarcando las etapas de construcción (diseño, operación, mantenimiento, etc.) Incluyendo a todos los agentes de construcción (ocupantes, stakeholders, constructores, etc.) Finalmente, se aporta un ejemplo teórico de una INFRAESTRUCTURA AEROPORTUARIA (Terminal Aeroportuaria) para fijar, demostrar y discutir el estudio presentado Abstract We seek to characterize the sustainability analysis of the life cycle of a building focus us on the evaluation of social aspect. From a holistic point of view and using complex systems theory, sustainability must be evaluated, in part, using social key performance indicator (KPI) to cover all factors of sustainability. The most remarkable of the proposed framework is to provide a methodology to achieve the sustainability in construction through the assessment of social KPIs. Besides we implement a tool to assess sustainability, where this tool could complete other commercial tools available (e.g. BREEAM, LEED). The proposed tool considers the complexity and trans-disciplinary of the problem. The procedure is based on a credit system easy to use. It also allows analysis and comparison of the boundary conditions of the building, embracing construction stages (design, operation), involving all the building agents (occupants, stakeholders, etc.)
Resumo:
Numerous damage models have been developed in order to analyze seismic behavior. Among the different possibilities existing in the literature, it is very clear that models developed along the lines of continuum damage mechanics are more consistent with the definition of damage as a phenomenon with mechanical consequences because they include explicitly the coupling between damage and mechanical behavior. On the other hand, for seismic processes, phenomena such as low cycle fatigue may have a pronounced effect on the overall behavior of the frames and, therefore, its consideration turns out to be very important. However, most of existing models evaluate the damage only as a function of the maximum amplitude of cyclic deformation without considering the number of cycles. In this paper, a generalization of the simplified model proposed by Cipollina et al. [Cipollina A, López-Hinojosa A, Flórez-López J. Comput Struct 1995;54:1113–26] is made in order to include the low cycle fatigue. Such a model employs in its formulation irreversible thermodynamics and internal state variable theory.
Resumo:
By combining complex network theory and data mining techniques, we provide objective criteria for optimization of the functional network representation of generic multivariate time series. In particular, we propose a method for the principled selection of the threshold value for functional network reconstruction from raw data, and for proper identification of the network's indicators that unveil the most discriminative information on the system for classification purposes. We illustrate our method by analysing networks of functional brain activity of healthy subjects, and patients suffering from Mild Cognitive Impairment, an intermediate stage between the expected cognitive decline of normal aging and the more pronounced decline of dementia. We discuss extensions of the scope of the proposed methodology to network engineering purposes, and to other data mining tasks.
Resumo:
Numerous damage models have been developed in order to analyse the seismic behavior. Among the different possibilities existing in the literature, it is very clear that models developed along the lines of Continuum Damage Mechanics are more consistent with the definition of damage like a phenomenon with mechanical consequences as they include explicitly the coupling between damage and mechanical behavior. On the other hand, for seismic processes, phenomena such as low cycle fatigue may have a pronounced effect on the overall behavior of the frames and, therefore, its consideration turns out to be very important. However, many of existing models evaluate the damage only as a function of the maximum amplitude of cyclic deformation without considering the number of cycles. In this paper, a generalization of the simplified model proposed by Flórez is made in order to include the low cycle fatigue. Such model employs in its formulation irreversible thermodynamics and internal state variable theory.
Resumo:
Many studies have been developed to analyze the structural seismic behavior through the damage index concept. The evaluation of this index has been employed to quantify the safety of new and existing structures and, also, to establish a framework for seismic retrofitting decision making of structures. Most proposed models are based in a posterthquake evaluation in such a way they uncouple the structural response from the damage evaluation. In this paper, a generalization of the model by Flórez-López (1995) is proposed. The formulation employs irreversible thermodynamics and internal state variable theory applied to the study of beams and frames and it allows and explicit coupling between the degradation and the structural mechanical behavior. A damage index es defined in order to model elastoplasticity coupled with damage and fatigue damage.
Resumo:
This contribution reviews the current state of art comprising the application of Complex Networks Theory to the analysis of functional brain networks. We briefly overview the main advances in this field during the last decade and we explain how graph analysis has increased our knowledge about how the brain behaves when performing a specific task or how it fails when a certain pathology arises. We also show the limitations of this kind of analysis, which have been a source of confusion and misunderstanding when interpreting the results obtained. Finally, we discuss about a possible direction to follow in the next years.
Resumo:
Existe un creciente interés internacional por el ahorro energético y la sostenibilidad en la edificación con importantes repercusiones en la Arquitectura. La inercia térmica es un parámetro fundamental para poder valorar energéticamente un edificio en condiciones reales. Para ello es necesario cambiar el enfoque tradicional de transmisión de calor en régimen estacionario por otro en régimen dinámico en el que se analizan las ondas térmicas y el flujo de calor oscilante que atraviesan los cerramientos. Los parámetros que definen la inercia térmica son: el espesor, la difusividad y el ciclo térmico. A su vez la difusividad está determinada por la conductividad térmica, la densidad y el calor específico del material. De estos parámetros la conductividad es el más complejo, variable y difícil de medir, especialmente en los cerramientos de tierra debido a su heterogeneidad y complejidad higrotérmica. En general, los métodos de medida de la conductividad o transmitancias en los paramentos presentan inconvenientes a la hora de medir un edificio construido con tierra: dificultades de implementación, el elevado coste o la fiabilidad de los resultados, principalmente. El Método de la Aguja Térmica (MAT) se basa en el principio de la evolución en el tiempo del calor emitido por una fuente lineal al insertarse en el seno de un material. Se ha escogido este método porque resulta práctico, de bajo coste y de fácil aplicación a gran escala pero tiene serios problemas de fiabilidad y exactitud. En esta tesis se desarrolla un método de medida de la conductividad térmica para Piezas de Albañilería de Tierra Cruda en laboratorio basado en el MAT, se mejora su fiabilidad, se analiza su incertidumbre, se compara con otros métodos de referencia y se aplica en adobes, Bloques de Tierra Comprimida y probetas de tierra estabilizada con distintas proporciones de paja. Este método servirá de base a una posterior aplicación in situ. Finalmente se proponen modelos matemáticos para mejorar la exactitud del dispositivo utilizado y para la estimación de la conductividad de cerramientos de tierra en función de su densidad. Con los resultados obtenidos se analizan las posibilidades de amortiguación y retardo de las ondas térmicas y capacidad de almacenaje de energía de los cerramientos en función de su densidad y humedad. There is growing international interest in energy saving and sustainability in buildings with significant impact on Architecture. Thermal inertia is a key parameter to assess energy in buildings in real conditions. This requires changing the traditional approach to heat transfer in steady state by another in dynamic regime which analyzes the thermal waves and oscillating heat flux passing through the external walls. The parameters defining the thermal inertia are: the thickness, the diffusivity and the thermal cycle. In turn, the diffusivity is determined by the thermal conductivity, density and specific heat of the material. Of these parameters, thermal conductivity is the most complex, variable and difficult to measure, especially in earth walls due to their heterogeneity and hygrothermal complexity. In general, the methods of measurement of conductivity and transmittance in walls have drawbacks when measuring a building with earth: implementation difficulties, high cost, or reliability of the results, mainly. The Thermal Needle Procedure (TNP) is based on the principle of evolution in time of heat from a line source when inserted within a material. This method was chosen because it is a practical, low cost and easy to implement on a large scale but has serious problems of reliability and accuracy. This thesis develops a laboratory method for measuring the thermal conductivity of Masonry Units Unfire Earth-based based on TNP, its uncertainty is analyzed, compared to other reference methods and applies in adobes, Compressed Earth Blocks and stabilized soil specimens with different proportions of straw. This method will form the basis of a subsequent application in situ. Finally, mathematical models are proposed to improve the accuracy of the device used, and to estimate the conductivity of earth enclosures depending on its density. With the results obtained earth enclosures are analyzed to estimate their possibilities of delay and buffer of termal waves and energy storage capacity according to their density and moisture.
Resumo:
Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.
Resumo:
El estudio del comportamiento de la atmósfera ha resultado de especial importancia tanto en el programa SESAR como en NextGen, en los que la gestión actual del tránsito aéreo (ATM) está experimentando una profunda transformación hacia nuevos paradigmas tanto en Europa como en los EE.UU., respectivamente, para el guiado y seguimiento de las aeronaves en la realización de rutas más eficientes y con mayor precisión. La incertidumbre es una característica fundamental de los fenómenos meteorológicos que se transfiere a la separación de las aeronaves, las trayectorias de vuelo libres de conflictos y a la planificación de vuelos. En este sentido, el viento es un factor clave en cuanto a la predicción de la futura posición de la aeronave, por lo que tener un conocimiento más profundo y preciso de campo de viento reducirá las incertidumbres del ATC. El objetivo de esta tesis es el desarrollo de una nueva técnica operativa y útil destinada a proporcionar de forma adecuada y directa el campo de viento atmosférico en tiempo real, basada en datos de a bordo de la aeronave, con el fin de mejorar la predicción de las trayectorias de las aeronaves. Para lograr este objetivo se ha realizado el siguiente trabajo. Se han descrito y analizado los diferentes sistemas de la aeronave que proporcionan las variables necesarias para obtener la velocidad del viento, así como de las capacidades que permiten la presentación de esta información para sus aplicaciones en la gestión del tráfico aéreo. Se ha explorado el uso de aeronaves como los sensores de viento en un área terminal para la estimación del viento en tiempo real con el fin de mejorar la predicción de las trayectorias de aeronaves. Se han desarrollado métodos computacionalmente eficientes para estimar las componentes horizontales de la velocidad del viento a partir de las velocidades de las aeronaves (VGS, VCAS/VTAS), la presión y datos de temperatura. Estos datos de viento se han utilizado para estimar el campo de viento en tiempo real utilizando un sistema de procesamiento de datos a través de un método de mínima varianza. Por último, se ha evaluado la exactitud de este procedimiento para que esta información sea útil para el control del tráfico aéreo. La información inicial proviene de una muestra de datos de Registradores de Datos de Vuelo (FDR) de aviones que aterrizaron en el aeropuerto Madrid-Barajas. Se dispuso de datos de ciertas aeronaves durante un periodo de más de tres meses que se emplearon para calcular el vector viento en cada punto del espacio aéreo. Se utilizó un modelo matemático basado en diferentes métodos de interpolación para obtener los vectores de viento en áreas sin datos disponibles. Se han utilizado tres escenarios concretos para validar dos métodos de interpolación: uno de dos dimensiones que trabaja con ambas componentes horizontales de forma independiente, y otro basado en el uso de una variable compleja que relaciona ambas componentes. Esos métodos se han probado en diferentes escenarios con resultados dispares. Esta metodología se ha aplicado en un prototipo de herramienta en MATLAB © para analizar automáticamente los datos de FDR y determinar el campo vectorial del viento que encuentra la aeronave al volar en el espacio aéreo en estudio. Finalmente se han obtenido las condiciones requeridas y la precisión de los resultados para este modelo. El método desarrollado podría utilizar los datos de los aviones comerciales como inputs utilizando los datos actualmente disponibles y la capacidad computacional, para proporcionárselos a los sistemas ATM donde se podría ejecutar el método propuesto. Estas velocidades del viento calculadas, o bien la velocidad respecto al suelo y la velocidad verdadera, se podrían difundir, por ejemplo, a través del sistema de direccionamiento e informe para comunicaciones de aeronaves (ACARS), mensajes de ADS-B o Modo S. Esta nueva fuente ayudaría a actualizar la información del viento suministrada en los productos aeronáuticos meteorológicos (PAM), informes meteorológicos de aeródromos (AIRMET), e información meteorológica significativa (SIGMET). ABSTRACT The study of the atmosphere behaviour is been of particular importance both in SESAR and NextGen programs, where the current air traffic management (ATM) system is undergoing a profound transformation to the new paradigms both in Europe and the USA, respectively, to guide and track aircraft more precisely on more efficient routes. Uncertainty is a fundamental characteristic of weather phenomena which is transferred to separation assurance, flight path de-confliction and flight planning applications. In this respect, the wind is a key factor regarding the prediction of the future position of the aircraft, so that having a deeper and accurate knowledge of wind field will reduce ATC uncertainties. The purpose of this thesis is to develop a new and operationally useful technique intended to provide adequate and direct real-time atmospheric winds fields based on on-board aircraft data, in order to improve aircraft trajectory prediction. In order to achieve this objective the following work has been accomplished. The different sources in the aircraft systems that provide the variables needed to derivate the wind velocity have been described and analysed, as well as the capabilities which allow presenting this information for air traffic management applications. The use of aircraft as wind sensors in a terminal area for real-time wind estimation in order to improve aircraft trajectory prediction has been explored. Computationally efficient methods have been developed to estimate horizontal wind components from aircraft velocities (VGS, VCAS/VTAS), pressure, and temperature data. These wind data were utilized to estimate a real-time wind field using a data processing approach through a minimum variance method. Finally, the accuracy of this procedure has been evaluated for this information to be useful to air traffic control. The initial information comes from a Flight Data Recorder (FDR) sample of aircraft landing in Madrid-Barajas Airport. Data available for more than three months were exploited in order to derive the wind vector field in each point of the airspace. Mathematical model based on different interpolation methods were used in order to obtain wind vectors in void areas. Three particular scenarios were employed to test two interpolation methods: a two-dimensional one that works with both horizontal components in an independent way, and also a complex variable formulation that links both components. Those methods were tested using various scenarios with dissimilar results. This methodology has been implemented in a prototype tool in MATLAB © in order to automatically analyse FDR and determine the wind vector field that aircraft encounter when flying in the studied airspace. Required conditions and accuracy of the results were derived for this model. The method developed could be fed by commercial aircraft utilizing their currently available data sources and computational capabilities, and providing them to ATM system where the proposed method could be run. Computed wind velocities, or ground and true airspeeds, would then be broadcasted, for example, via the Aircraft Communication Addressing and Reporting System (ACARS), ADS-B out messages, or Mode S. This new source would help updating the wind information furnished in meteorological aeronautical products (PAM), meteorological aerodrome reports (AIRMET), and significant meteorological information (SIGMET).
Resumo:
We study the effects of finite temperature on the dynamics of non-planar vortices in the classical, two-dimensional anisotropic Heisenberg model with XY- or easy-plane symmetry. To this end, we analyze a generalized Landau-Lifshitz equation including additive white noise and Gilbert damping. Using a collective variable theory with no adjustable parameters we derive an equation of motion for the vortices with stochastic forces which are shown to represent white noise with an effective diffusion constant linearly dependent on temperature. We solve these stochastic equations of motion by means of a Green's function formalism and obtain the mean vortex trajectory and its variance. We find a non-standard time dependence for the variance of the components perpendicular to the driving force. We compare the analytical results with Langevin dynamics simulations and find a good agreement up to temperatures of the order of 25% of the Kosterlitz-Thouless transition temperature. Finally, we discuss the reasons why our approach is not appropriate for higher temperatures as well as the discreteness effects observed in the numerical simulations.
Resumo:
Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.