73 resultados para Moretti, Franco: Graphs, Maps, Trees. Abstract models for a literaty theory
Resumo:
We examine the connectivity fluctuations across networks obtained when the horizontal visibility (HV) algorithm is used on trajectories generated by nonlinear circle maps at the quasiperiodic transition to chaos. The resultant HV graph is highly anomalous as the degrees fluctuate at all scales with amplitude that increases with the size of the network. We determine families of Pesin-like identities between entropy growth rates and generalized graph-theoretical Lyapunov exponents. An irrational winding number with pure periodic continued fraction characterizes each family. We illustrate our results for the so-called golden, silver, and bronze numbers
Resumo:
In programming languages with dynamic use of memory, such as Java, knowing that a reference variable x points to an acyclic data structure is valuable for the analysis of termination and resource usage (e.g., execution time or memory consumption). For instance, this information guarantees that the depth of the data structure to which x points is greater than the depth of the data structure pointed to by x.f for any field f of x. This, in turn, allows bounding the number of iterations of a loop which traverses the structure by its depth, which is essential in order to prove the termination or infer the resource usage of the loop. The present paper provides an Abstract-Interpretation-based formalization of a static analysis for inferring acyclicity, which works on the reduced product of two abstract domains: reachability, which models the property that the location pointed to by a variable w can be reached by dereferencing another variable v (in this case, v is said to reach w); and cyclicity, modeling the property that v can point to a cyclic data structure. The analysis is proven to be sound and optimal with respect to the chosen abstraction.
Resumo:
El uso de refuerzos NSM‐FRP en estructuras de hormigón armado se ha incrementado considerablemente en los últimos años como método de refuerzo estructural. Los ensayos de arrancamiento en viga de los refuerzos NSM‐FRP permiten el estudio del comportamiento de la unión pegada. El principal objetivo del presente trabajo aborda la simulación numérica de este tipo de ensayos, con el propósito de caracterizar correctamente la adherencia entre las barras de NSM‐FRP y el hormigón. En una fase inicial se simuló un modelo bidimensional para conseguir evaluar y verificar el comportamiento de los elementos cohesivos y ver su comportamiento primero ante diferentes modelos de material y segundo ante un modo mixto de fallo, debido a la aplicación simultanea de carga axial y carga cortante. En una segunda fase se creó un modelo tridimensional para estudiar el arrancamiento de una barra de material compuesto insertada en hormigón, creando un modelo de material de hormigón y viendo el comportamiento cualitativo del sistema ante variaciones en los parámetros de los diferentes materiales. En la tercera fase, la más importante del presente trabajo, se abordó la simulación numérica del ensayo de arrancamiento en viga. Se simularon todos los componentes del ensayo y se evaluaron diferentes alternativas para representar la interfase NSM‐FRP ‐ hormigón, usando elementos cohesivos y diferentes distribuciones de los mismos en la interfase. Para conseguir representar lo más fielmente posible las condiciones del ensayo, se diseñó también un controlador PID que permite realizar las simulaciones numéricas mediante un control en desplazamientos, lo cual permite capturar más correctamente el comportamiento de reblandecimiento de la unión pegada. El controlador PID aplica técnicas de ingeniería de control para conseguir calcular a priori la amplitud necesaria del desplazamiento impuesto que provoque una evolución establecida en una variable interna del sistema. La variable usada para correlacionar los ensayos es la diferencia en desplazamientos entre dos puntos y se escoge una evolución lineal de la misma, pero en la tesis también se exponen los resultados de escoger otras posibles variables internas con diferentes evoluciones. Se compararon las simulaciones numéricas con resultados de mediciones experimentales previamente publicadas. Los resultados carga‐deslizamiento obtenidos encajan bien con los datos experimentales. El modelo propuesto es también capaz de predecir el modo de fallo en la interfase NSM‐FRP ‐ hormigón. Finalmente, también se han llevado a cabo estudios paramétricos, para evaluar la influencia de cada parámetro en los resultados. También se realizó un estudio cualitativo de cómo se comporta la unión pegada en cada momento de la simulación, mediante el uso macros y gráficas tridimensionales, para conseguir una mejor visualización y facilitar el análisis de los resultados. ABSTRACT The use of near‐surface mounted FRP reinforcement in reinforced concrete structures has seen a considerable increase in recent years as a strengthening method. Beam pull‐out tests for near‐surface reinforcement allow obtaining the local bond‐slip behavior of a bonded joint. The main objective of the current work deals with the three‐dimensional modeling of this kind of test with the purpose of characterizing suitably the mechanics of bond between FRP rods and concrete. In an initial stage, a two bidimensional in order to evaluate and to verify the behavior of the cohesive elements. Its behavior was evaluated first testing different material models and second testing the behavior when mixed mode failure appears, due to simultaneous axial and shear load. In a second stage a tridimensional model was created in order to study the pull‐out of an inserted beam of composite material in concrete. A concrete material model was created and the influence of each material parameter was studied qualitatively. The third part, the most relevant of the present work, the numerical simulation of the Beam Pull‐Out test was faced. All the parts of the Beam Pull‐Out test were included inthe simulation and different alternatives to represent the FRP bar – concrete interface have been evaluated, using cohesive elements and different distributions of them. In order to reproduce the test conditions more reliably, a PID controller has also been designed to conduct suitably the numerical tests in order to properly capture the softening branch of the load‐slip behaviour. The PID controller applies control techniques to calculate a priori the necessary amplitude of the load in order to achieve a given evolution through the simulation of an internal variable previously chosen. The variable used in order to correlate the simulation with the test results is the difference in displacements between two points and a linear evolution was chosen, but in the thesis the results of choosing other possible internal variables with different evolutions are also shown. The numerical FE simulations were compared with experimental measurements previously published. Load‐slip predictions compare well with the corresponding experimental data. The proposed model is also able to predict the failure mode at the FRP‐concrete interface. Some parametric studies have also been carried out, in order to evaluate the influence of each material parameter in the results. A qualitative study of the behaviour of the joint was also performed, using the results of the numeric simulations and through the use of macros and 3D graphs, the tensional state of each point of the joint can be visualized in each moment of the simulation.
Resumo:
Los modelos de simulación de cultivos permiten analizar varias combinaciones de laboreo-rotación y explorar escenarios de manejo. El modelo DSSAT fue evaluado bajo condiciones de secano en un experimento de campo de 16 años en la semiárida España central. Se evaluó el efecto del sistema de laboreo y las rotaciones basadas en cereales de invierno, en el rendimiento del cultivo y la calidad del suelo. Los modelos CERES y CROPGRO se utilizaron para simular el crecimiento y rendimiento del cultivo, mientras que el modelo DSSAT CENTURY se utilizó en las simulaciones de SOC y SN. Tanto las observaciones de campo como las simulaciones con CERES-Barley, mostraron que el rendimiento en grano de la cebada era mas bajo para el cereal continuo (BB) que para las rotaciones de veza (VB) y barbecho (FB) en ambos sistemas de laboreo. El modelo predijo más nitrógeno disponible en el laboreo convencional (CT) que en el no laboreo (NT) conduciendo a un mayor rendimiento en el CT. El SOC y el SN en la capa superficial del suelo, fueron mayores en NT que en CT, y disminuyeron con la profundidad en los valores tanto observados como simulados. Las mejores combinaciones para las condiciones de secano estudiadas fueron CT-VB y CT-FB, pero CT presentó menor contenido en SN y SOC que NT. El efecto beneficioso del NT en SOC y SN bajo condiciones Mediterráneas semiáridas puede ser identificado por observaciones de campo y por simulaciones de modelos de cultivos. La simulación del balance de agua en sistemas de cultivo es una herramienta útil para estudiar como el agua puede ser utilizado eficientemente. La comparación del balance de agua de DSSAT , con una simple aproximación “tipping bucket”, con el modelo WAVE más mecanicista, el cual integra la ecuación de Richard , es un potente método para valorar el funcionamiento del modelo. Los parámetros de suelo fueron calibrados usando el método de optimización global Simulated Annealing (SA). Un lisímetro continuo de pesada en suelo desnudo suministró los valores observados de drenaje y evapotranspiración (ET) mientras que el contenido de agua en el suelo (SW) fue suministrado por sensores de capacitancia. Ambos modelos funcionaron bien después de la optimización de los parámetros de suelo con SA, simulando el balance de agua en el suelo para el período de calibración. Para el período de validación, los modelos optimizados predijeron bien el contenido de agua en el suelo y la evaporación del suelo a lo largo del tiempo. Sin embargo, el drenaje fue predicho mejor con WAVE que con DSSAT, el cual presentó mayores errores en los valores acumulados. Esto podría ser debido a la naturaleza mecanicista de WAVE frente a la naturaleza más funcional de DSSAT. Los buenos resultados de WAVE indican que, después de la calibración, este puede ser utilizado como "benchmark" para otros modelos para periodos en los que no haya medidas de campo del drenaje. El funcionamiento de DSSAT-CENTURY en la simulación de SOC y N depende fuertemente del proceso de inicialización. Se propuso como método alternativo (Met.2) la inicialización de las fracciones de SOC a partir de medidas de mineralización aparente del suelo (Napmin). El Met.2 se comparó con el método de inicialización de Basso et al. (2011) (Met.1), aplicando ambos métodos a un experimento de campo de 4 años en un área en regadío de España central. Nmin y Napmin fueron sobreestimados con el Met.1, ya que la fracción estable obtenida (SOC3) en las capas superficiales del suelo fue más baja que con Met.2. El N lixiviado simulado fue similar en los dos métodos, con buenos resultados en los tratamientos de barbecho y cebada. El Met.1 subestimó el SOC en la capa superficial del suelo cuando se comparó con una serie observada de 12 años. El crecimiento y rendimiento del cultivo fueron adecuadamente simulados con ambos métodos, pero el N en la parte aérea de la planta y en el grano fueron sobreestimados con el Met.1. Los resultados variaron significativamente con las fracciones iniciales de SOC, resaltando la importancia del método de inicialización. El Met.2 ofrece una alternativa para la inicialización del modelo CENTURY, mejorando la simulación de procesos de N en el suelo. La continua emergencia de nuevas variedades de híbridos modernos de maíz limita la aplicación de modelos de simulación de cultivos, ya que estos nuevos híbridos necesitan ser calibrados en el campo para ser adecuados para su uso en los modelos. El desarrollo de relaciones basadas en la duración del ciclo, simplificaría los requerimientos de calibración facilitando la rápida incorporación de nuevos cultivares en DSSAT. Seis híbridos de maiz (FAO 300 hasta FAO 700) fueron cultivados en un experimento de campo de dos años en un área semiárida de regadío en España central. Los coeficientes genéticos fueron obtenidos secuencialmente, comenzando con los parámetros de desarrollo fenológico (P1, P2, P5 and PHINT), seguido de los parámetros de crecimiento del cultivo (G2 and G3). Se continuó el procedimiento hasta que la salida de las simulaciones estuvo en concordancia con las observaciones fenológicas de campo. Después de la calibración, los parámetros simulados se ajustaron bien a los parámetros observados, con bajos RMSE en todos los casos. Los P1 y P5 calibrados, incrementaron con la duración del ciclo. P1 fue una función lineal del tiempo térmico (TT) desde emergencia hasta floración y P5 estuvo linealmente relacionada con el TT desde floración a madurez. No hubo diferencias significativas en PHINT entre híbridos de FAO-500 a 700 , ya que tuvieron un número de hojas similar. Como los coeficientes fenológicos estuvieron directamente relacionados con la duración del ciclo, sería posible desarrollar rangos y correlaciones que permitan estimar dichos coeficientes a partir de la clasificación del ciclo. ABSTRACT Crop simulation models allow analyzing various tillage-rotation combinations and exploring management scenarios. DSSAT model was tested under rainfed conditions in a 16-year field experiment in semiarid central Spain. The effect of tillage system and winter cereal-based rotations on the crop yield and soil quality was evaluated. The CERES and CROPGRO models were used to simulate crop growth and yield, while the DSSAT CENTURY was used in the SOC and SN simulations. Both field observations and CERES-Barley simulations, showed that barley grain yield was lower for continuous cereal (BB) than for vetch (VB) and fallow (FB) rotations for both tillage systems. The model predicted higher nitrogen availability in the conventional tillage (CT) than in the no tillage (NT) leading to a higher yield in the CT. The SOC and SN in the top layer, were higher in NT than in CT, and decreased with depth in both simulated and observed values. The best combinations for the dry land conditions studied were CT-VB and CT-FB, but CT presented lower SN and SOC content than NT. The beneficial effect of NT on SOC and SN under semiarid Mediterranean conditions can be identified by field observations and by crop model simulations. The simulation of the water balance in cropping systems is a useful tool to study how water can be used efficiently. The comparison of DSSAT soil water balance, with a simpler “tipping bucket” approach, with the more mechanistic WAVE model, which integrates Richard’s equation, is a powerful method to assess model performance. The soil parameters were calibrated by using the Simulated Annealing (SA) global optimizing method. A continuous weighing lysimeter in a bare fallow provided the observed values of drainage and evapotranspiration (ET) while soil water content (SW) was supplied by capacitance sensors. Both models performed well after optimizing soil parameters with SA, simulating the soil water balance components for the calibrated period. For the validation period, the optimized models predicted well soil water content and soil evaporation over time. However, drainage was predicted better by WAVE than by DSSAT, which presented larger errors in the cumulative values. That could be due to the mechanistic nature of WAVE against the more functional nature of DSSAT. The good results from WAVE indicate that, after calibration, it could be used as benchmark for other models for periods when no drainage field measurements are available. The performance of DSSAT-CENTURY when simulating SOC and N strongly depends on the initialization process. Initialization of the SOC pools from apparent soil N mineralization (Napmin) measurements was proposed as alternative method (Met.2). Method 2 was compared to the Basso et al. (2011) initialization method (Met.1), by applying both methods to a 4-year field experiment in a irrigated area of central Spain. Nmin and Napmin were overestimated by Met.1, since the obtained stable pool (SOC3) in the upper layers was lower than from Met.2. Simulated N leaching was similar for both methods, with good results in fallow and barley treatments. Method 1 underestimated topsoil SOC when compared with a 12-year observed serial. Crop growth and yield were properly simulated by both methods, but N in shoots and grain were overestimated by Met.1. Results varied significantly with the initial SOC pools, highlighting the importance of the initialization procedure. Method 2 offers an alternative to initialize the CENTURY model, enhancing the simulation of soil N processes. The continuous emergence of new varieties of modern maize hybrids limits the application of crop simulation models, since these new hybrids should be calibrated in the field to be suitable for model use. The development of relationships based on the cycle duration, would simplify the calibration requirements facilitating the rapid incorporation of new cultivars into DSSAT. Six maize hybrids (FAO 300 through FAO 700) were grown in a 2-year field experiment in a semiarid irrigated area of central Spain. Genetic coefficients were obtained sequentially, starting with the phenological development parameters (P1, P2, P5 and PHINT), followed by the crop growth parameters (G2 and G3). The procedure was continued until the simulated outputs were in good agreement with the field phenological observations. After calibration, simulated parameters matched observed parameters well, with low RMSE in most cases. The calibrated P1 and P5 increased with the duration of the cycle. P1 was a linear function of the thermal time (TT) from emergence to silking and P5 was linearly related with the TT from silking to maturity . There were no significant differences in PHINT between hybrids from FAO-500 to 700 , as they had similar leaf number. Since phenological coefficients were directly related with the cycle duration, it would be possible to develop ranges and correlations which allow to estimate such coefficients from the cycle classification.
Resumo:
En los últimos años ha habido una fuerte tendencia a disminuir las emisiones de CO2 y su negativo impacto medioambiental. En la industria del transporte, reducir el peso de los vehículos aparece como la mejor opción para alcanzar este objetivo. Las aleaciones de Mg constituyen un material con gran potencial para el ahorro de peso. Durante la última década se han realizado muchos esfuerzos encaminados a entender los mecanismos de deformación que gobiernan la plasticidad de estos materiales y así, las aleaciones de Mg de colada inyectadas a alta presión y forjadas son todavía objeto de intensas campañas de investigación. Es ahora necesario desarrollar modelos que contemplen la complejidad inherente de los procesos de deformación de éstos. Esta tesis doctoral constituye un intento de entender mejor la relación entre la microestructura y el comportamiento mecánico de aleaciones de Mg, y dará como resultado modelos de policristales capaces de predecir propiedades macro- y microscópicas. La deformación plástica de las aleaciones de Mg está gobernada por una combinación de mecanismos de deformación característicos de la estructura cristalina hexagonal, que incluye el deslizamiento cristalográfico en planos basales, prismáticos y piramidales, así como el maclado. Las aleaciones de Mg de forja presentan texturas fuertes y por tanto los mecanismos de deformación activos dependen de la orientación de la carga aplicada. En este trabajo se ha desarrollado un modelo de plasticidad cristalina por elementos finitos con el objetivo de entender el comportamiento macro- y micromecánico de la aleación de Mg laminada AZ31 (Mg-3wt.%Al-1wt.%Zn). Este modelo, que incorpora el maclado y tiene en cuenta el endurecimiento por deformación debido a las interacciones dislocación-dislocación, dislocación-macla y macla-macla, predice exitosamente las actividades de los distintos mecanismos de deformación y la evolución de la textura con la deformación. Además, se ha llevado a cabo un estudio que combina difracción de electrones retrodispersados en tres dimensiones y modelización para investigar el efecto de los límites de grano en la propagación del maclado en el mismo material. Ambos, experimentos y simulaciones, confirman que el ángulo de desorientación tiene una influencia decisiva en la propagación del maclado. Se ha observado que los efectos no-Schmid, esto es, eventos de deformación plástica que no cumplen la ley de Schmid con respecto a la carga aplicada, no tienen lugar en la vecindad de los límites de baja desorientación y se hacen más frecuentes a medida que la desorientación aumenta. Esta investigación también prueba que la morfología de las maclas está altamente influenciada por su factor de Schmid. Es conocido que los procesos de colada suelen dar lugar a la formación de microestructuras con una microporosidad elevada, lo cuál afecta negativamente a sus propiedades mecánicas. La aplicación de presión hidrostática después de la colada puede reducir la porosidad y mejorar las propiedades aunque es poco conocido su efecto en el tamaño y morfología de los poros. En este trabajo se ha utilizado un enfoque mixto experimentalcomputacional, basado en tomografía de rayos X, análisis de imagen y análisis por elementos finitos, para la determinación de la distribución tridimensional (3D) de la porosidad y de la evolución de ésta con la presión hidrostática en la aleación de Mg AZ91 (Mg- 9wt.%Al-1wt.%Zn) colada por inyección a alta presión. La distribución real de los poros en 3D obtenida por tomografía se utilizó como input para las simulaciones por elementos finitos. Los resultados revelan que la aplicación de presión tiene una influencia significativa tanto en el cambio de volumen como en el cambio de forma de los poros que han sido cuantificados con precisión. Se ha observado que la reducción del tamaño de éstos está íntimamente ligada con su volumen inicial. En conclusión, el modelo de plasticidad cristalina propuesto en este trabajo describe con éxito los mecanismos intrínsecos de la deformación de las aleaciones de Mg a escalas meso- y microscópica. Más especificamente, es capaz de capturar las activadades del deslizamiento cristalográfico y maclado, sus interacciones, así como los efectos en la porosidad derivados de los procesos de colada. ---ABSTRACT--- The last few years have seen a growing effort to reduce CO2 emissions and their negative environmental impact. In the transport industry more specifically, vehicle weight reduction appears as the most straightforward option to achieve this objective. To this end, Mg alloys constitute a significant weight saving material alternative. Many efforts have been devoted over the last decade to understand the main mechanisms governing the plasticity of these materials and, despite being already widely used, high pressure die-casting and wrought Mg alloys are still the subject of intense research campaigns. Developing models that can contemplate the complexity inherent to the deformation of Mg alloys is now timely. This PhD thesis constitutes an attempt to better understand the relationship between the microstructure and the mechanical behavior of Mg alloys, as it will result in the design of polycrystalline models that successfully predict macro- and microscopic properties. Plastic deformation of Mg alloys is driven by a combination of deformation mechanisms specific to their hexagonal crystal structure, namely, basal, prismatic and pyramidal dislocation slip as well as twinning. Wrought Mg alloys present strong textures and thus specific deformation mechanisms are preferentially activated depending on the orientation of the applied load. In this work a crystal plasticity finite element model has been developed in order to understand the macro- and micromechanical behavior of a rolled Mg AZ31 alloy (Mg-3wt.%Al-1wt.%Zn). The model includes twinning and accounts for slip-slip, slip-twin and twin-twin hardening interactions. Upon calibration and validation against experiments, the model successfully predicts the activity of the various deformation mechanisms and the evolution of the texture at different deformation stages. Furthermore, a combined three-dimensional electron backscatter diffraction and modeling approach has been adopted to investigate the effect of grain boundaries on twin propagation in the same material. Both experiments and simulations confirm that the misorientation angle has a critical influence on twin propagation. Non-Schmid effects, i.e. plastic deformation events that do not comply with the Schmid law with respect to the applied stress, are absent in the vicinity of low misorientation boundaries and become more abundant as misorientation angle increases. This research also proves that twin morphology is highly influenced by the Schmid factor. Finally, casting processes usually lead to the formation of significant amounts of gas and shrinkage microporosity, which adversely affect the mechanical properties. The application of hydrostatic pressure after casting can reduce the porosity and improve the properties but little is known about the effects on the casting’s pores size and morphology. In this work, an experimental-computational approach based on X-ray computed tomography, image analysis and finite element analysis is utilized for the determination of the 3D porosity distribution and its evolution with hydrostatic pressure in a high pressure diecast Mg AZ91 alloy (Mg-9wt.%Al-1wt.%Zn). The real 3D pore distribution obtained by tomography is used as input for the finite element simulations using an isotropic hardening law. The model is calibrated and validated against experimental stress-strain curves. The results reveal that the pressure treatment has a significant influence both on the volume and shape changes of individuals pores, which have been precisely quantified, and which are found to be related to the initial pore volume. In conclusion, the crystal plasticity model proposed in this work successfully describes the intrinsic deformation mechanisms of Mg alloys both at the mesoscale and the microscale. More specifically, it can capture slip and twin activities, their interactions, as well as the potential porosity effects arising from casting processes.
Resumo:
Comments This article is a U.S. government work, and is not subject to copyright in the United States. Abstract Potential consequences of climate change on crop production can be studied using mechanistic crop simulation models. While a broad variety of maize simulation models exist, it is not known whether different models diverge on grain yield responses to changes in climatic factors, or whether they agree in their general trends related to phenology, growth, and yield. With the goal of analyzing the sensitivity of simulated yields to changes in temperature and atmospheric carbon dioxide concentrations [CO2], we present the largest maize crop model intercomparison to date, including 23 different models. These models were evaluated for four locations representing a wide range of maize production conditions in the world: Lusignan (France), Ames (USA), Rio Verde (Brazil) and Morogoro (Tanzania). While individual models differed considerably in absolute yield simulation at the four sites, an ensemble of a minimum number of models was able to simulate absolute yields accurately at the four sites even with low data for calibration, thus suggesting that using an ensemble of models has merit. Temperature increase had strong negative influence on modeled yield response of roughly 0.5 Mg ha 1 per °C. Doubling [CO2] from 360 to 720 lmol mol 1 increased grain yield by 7.5% on average across models and the sites. That would therefore make temperature the main factor altering maize yields at the end of this century. Furthermore, there was a large uncertainty in the yield response to [CO2] among models. Model responses to temperature and [CO2] did not differ whether models were simulated with low calibration information or, simulated with high level of calibration information.
Resumo:
Una investigación sobre la mejora de la contaminación del aire (CA) por medio de arbolado urbano se realizó en Madrid, una ciudad con casi 4 M de habitantes, 2,8 M de vehículos y casi 3 M de árboles de mantenimiento público. La mayoría de los árboles estaban en dos bosques periurbanos. Los 650.000 restantes era pies de alineación y parques. Los taxones estudiados fueron Platanus orientalis (97.205 árboles), Ulmus sp. (70.557), Pinus pinea (49.038), Aesculus hippocastanum (22.266), Cedrus sp. (13.678) y Quercus ilex (1.650), de calles y parques. Muestras foliares se analizaron en diferentes épocas del año, así como datos de contaminación por PM10 de 28 estaciones de medición de la contaminación durante 30 años, y también la intensidad del tráfico (IMD) en 2.660 calles. La acumulación de metales pesados (MP) sobre hojas y dentro de estas se estimó en relación con la CA y del suelo y la IMD del tráfico. La concentración media de Ba, Cd, Cr, Cu, Mn, Ni, Pb y Zn en suelo (materia seca) alcanzó: 489,5, 0,7, 49,4, 60,9, 460,9, 12,8, 155,9 y 190,3 mg kg-1 respectivamente. Los árboles urbanos, particularmente coníferas (debido a la mayor CA en invierno) contribuyen significativamente a mejorar la CA sobre todo en calles con alta IMD. La capacidad de las seis sp. para capturar partículas de polvo en su superficies foliares está relacionada con la IMD del tráfico y se estimó en 16,8 kg/año de MP tóxicos. Pb y Zn resultaron ser buenos marcadores antrópicos en la ciudad en relación con el tráfico, que fue la principal fuente de contaminación en los árboles y suelos de Madrid. Las especies de árboles variaron en función de su capacidad para capturar partículas (dependiendo de las propiedades de sus superficies foliares) y acumular los MP absorbidos de los suelos. Las concentraciones foliares de Pb y Zn estuvieron por encima de los límites establecidos en diferentes sitios de la ciudad. La microlocalización de Zn mediante microscópico mostró la translocación al xilema y floema. Se detectaron puntos de contaminación puntual de Cu and Cr en antiguos polígonos industriales y la distribución espacial de los MP en los suelos de Madrid mostró que en incluso en zonas interiores del El Retiro había ciertos niveles elevados de [Pb] en suelo, tal vez por el emplazamiento la Real Fábrica de Porcelana en la misma zona hace 200 años. Distintas áreas del centro de la ciudad también alcanzaron niveles altos de [Pb] en suelo. Según los resultados, el empleo de una combinación de Pinus pinea con un estrato intermedio de Ulmus sp. y Cedrus sp. puede ser la mejor recomendación como filtro verde eficiente. El efecto del ozono (O3) sobre el arbolado en Madrid fue también objeto de este estudio. A pesar de la reducción de precursores aplicada en muchos países industrializados, O3 sigue siendo la principal causa de CA en el hemisferio norte, con el aumento de [O3] de fondo. Las mayores [O3] se alcanzaron en regiones mediterráneas, donde el efecto sobre la vegetación natural es compensado por el xeromorfismo y la baja conductancia estomática en respuesta los episodios de sequía estival característicos de este clima. Durante una campaña de monitoreo, se identificaron daños abióticos en hojas de encina parecidos a los de O3 que estaban plantadas en una franja de césped con riego del centro de Madrid. Dada la poca evidencia disponible de los síntomas de O3 en frondosas perennifolias, se hizo un estudio que trató de 1) confirman el diagnóstico de daño de O3, 2) investigar el grado de los síntomas en encinas y 3) analizar los factores ambientales que contribuyeron a los daños por O3, en particular en lo relacionado con el riego. Se analizaron los marcadores macro y micromorfológicos de estrés por O3, utilizando las mencionadas encinas a modo de parcela experimental. Los síntomas consistieron en punteado intercostal del haz, que aumentó con la edad. Además de un punteado subyacente, donde las células superiores del mesófilo mostraron reacciones características de daños por O3. Las células próximas a las zonas dañadas, presentaron marcadores adicionales de estrés oxidativo. Estos marcadores morfológicos y micromorfológicos de estrés por O3 fueron similares a otras frondosas caducifolias con daños por O3. Sin embargo, en nuestro caso el punteado fue evidente con AOT40 de 21 ppm•h, asociada a riego. Análisis posteriores mostraron que los árboles con riego aumentaron su conductancia estomática, con aumento de senescencia, manteniéndose sin cambios sus características xeromórficas foliares. Estos hallazgos ponen de relieve el papel primordial de la disponibilidad de agua frente a las características xeromórficas a la hora de manifestarse los síntomas en las células por daños de O3 en encina. ABSTRACT Research about air pollution mitigation by urban trees was conducted in Madrid (Spain), a southern European city with almost 4 M inhabitants, 2.8 M daily vehicles and 3 M trees under public maintenance. Most trees were located in two urban forests, while 650'000 trees along urban streets and in parks. The urban taxa included Platanus orientalis (97'205 trees), Ulmus sp. (70’557), Pinus pinea (49'038), Aesculus hippocastanum (22’266), Cedrus sp. (13'678 and Quercus ilex (1'650) along streets and parks. Leave samples were analysed sequentially in different seasons, PM10 data from 28 air monitoring stations during 30 years and traffic density estimated from 2’660 streets. Heavy metal (HM) accumulation on the leaf surface and within leaves was estimated per tree related to air and soil pollution, and traffic intensity. Mean concentration of Ba, Cd, Cr, Cu, Mn, Ni, Pb and Zn in topsoil samples (dry mass) amounted in Madrid: 489.5, 0.7, 49.4, 60.9, 460.9, 12.8, 155.9 and 190.3 mg kg-1 respectively. Urban trees, particularly conifers (due to higher pollution in winter) contributed significantly to alleviate air pollution especially near to high ADT roads. The capacity of the six urban street trees species to capture air-born dust on the foliage surface as related to traffic intensity was estimated to 16.8 kg of noxious metals from exhausts per year. Pb and Zn pointed to be tracers of anthropic activity in the city with vehicle traffic as the main source of diffuse pollution on trees and soils. Tree species differed by their capacity to capture air-borne dust (by different leaf surface properties) and to allocate HM from soils. Pb and Zn concentrations in the foliage were above limits in different urban sites and microscopic Zn revelation showed translocation in xylem and phloem tissue. Punctual contamination in soils by Cu and Cr was identified in former industrial areas and spatial trace element mapping showed for central Retiro Park certain high values of [Pb] in soils even related to a Royal pottery 200 years ago. Different areas in the city centre also reached high levels [Pb] in soils. According to the results, a combination of Pinus pinea with understorey Ulmus sp. and Cedrus sp. layers can be recommended for the best air filter efficiency. The effects of ozone (O3) on trees in different areas of Madrid were also part of this study. Despite abatement programs of precursors implemented in many industrialized countries, ozone remained the main air pollutant throughout the northern hemisphere with background [O3] increasing. Some of the highest ozone concentrations were measured in regions with a Mediterranean climate but the effect on the natural vegetation is alleviated by low stomatal uptake and frequent leaf xeromorphy in response to summer drought episodes characteristic of this climate. During a bioindication survey, abiotic O3-like injury was identified in foliage. Trees were growing on an irrigated lawn strip in the centre of Madrid. Given the little structural evidence available for O3 symptoms in broadleaved evergreen species, a study was undertaken in 2007 with the following objectives 1) confirm the diagnosis, 2) investigate the extent of symptoms in holm oaks growing in Madrid and 3) analyse the environmental factors contributing to O3 injury, particularly, the site water supply. Therefore, macro- and micromorphological markers of O3 stress were analysed, using the aforementioned lawn strip as an intensive study site. Symptoms consisted of adaxial and intercostal stippling increasing with leaf age. Underlying stippling, cells in the upper mesophyll showed HR-like reactions typical of ozone stress. The surrounding cells showed further oxidative stress markers. These morphological and micromorphological markers of ozone stress were similar to those recorded in deciduous broadleaved species. However, stippling became obvious already at an AOT40 of 21 ppm•h and was primarily found at irrigated sites. Subsequent analyses showed that irrigated trees had their stomatal conductance increased and leaf life-span reduced whereas their leaf xeromorphy remained unchanged. These findings suggest a central role of water availability versus leaf xeromorphy for ozone symptom expression by cell injury in holm oak.
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
En este trabajo se propone el uso de diversos tipos de haces no-uniformemente y totalmente polarizados en medidas polarimétricas de muestras homogéneas y transparentes. Como ejemplos concretos de este tipo de haces se proponen los haces espiralmente polarizados y haces a la salida de medios uniáxicos anisótropos con el eje óptico en la dirección de propagación. Dichos haces se representan mediante modelos analíticos sencillos, teniendo en cuenta el carácter vectorial de los mismos, los cuales permiten conocer el campo en cualquier plano en propagación libre y a través de medios o sistemas que pueden ser descritos mediante matrices de Müller. Mediante el uso de haces nouniformemente y totalmente polarizados se simplifica notablemente el proceso de medida, siendo suficientes una o dos medidas según el haz utilizado, para la obtención de todos los elementos de la matriz de Müller de la muestra. ABSTRACT. In this work the use of non-uniformly and totally polarized fields in polarimetric measurements of homogeneous and transparent samples is proposed. As particular examples of this kind of fields, spirally polarized fields and fields at the output of uniaxial anisotropic media, with its optics axis along the propagation direction, are considered. Such fields are represented by simple analytical models, taking the vectorial nature of light into account. By means of these models, the fields at any plane upon free propagation or after passing through media or systems described by Müller matrices, can be calculated. By using non-uniformly and totally polarized fields the measurement procedure is significantly simplified. Depending on the field to be used only one or two measurements are required for obtaining all the elements of the Müller matrix of the sample.
Resumo:
El objetivo principal alrededor del cual se desenvuelve este proyecto es el desarrollo de un sistema de reconocimiento facial. Entre sus objetivos específicos se encuentran: realizar una primera aproximación sobre las técnicas de reconocimiento facial existentes en la actualidad, elegir una aplicación donde pueda ser útil el reconocimiento facial, diseñar y desarrollar un programa en MATLAB que lleve a cabo la función de reconocimiento facial, y evaluar el funcionamiento del sistema desarrollado. Este documento se encuentra dividido en cuatro partes: INTRODUCCIÓN, MARCO TEÓRICO, IMPLEMENTACIÓN, y RESULTADOS, CONCLUSIONES Y LÍNEAS FUTURAS. En la primera parte, se hace una introducción relativa a la actualidad del reconocimiento facial y se comenta brevemente sobre las técnicas existentes para desarrollar un sistema biométrico de este tipo. En ella se justifican también aquellas técnicas que acabaron formando parte de la implementación. En la segunda parte, el marco teórico, se explica la estructura general que tiene un sistema de reconocimiento biométrico, así como sus modos de funcionamiento, y las tasas de error utilizadas para evaluar y comparar su rendimiento. Así mismo, se lleva a cabo una descripción más profunda sobre los conceptos y métodos utilizados para efectuar la detección y reconocimiento facial en la tercera parte del proyecto. La tercera parte abarca una descripción detallada de la solución propuesta. En ella se explica el diseño, características y aplicación de la implementación; que trata de un programa elaborado en MATLAB con interfaz gráfica, y que utiliza cuatro sistemas de reconocimiento facial, basados cada uno en diferentes técnicas: Análisis por componentes principales, análisis lineal discriminante, wavelets de Gabor, y emparejamiento de grafos elásticos. El programa ofrece además la capacidad de crear y editar una propia base de datos con etiquetas, dándole aplicación directa sobre el tema que se trata. Se proponen además una serie de características con el objetivo de ampliar y mejorar las funcionalidades del programa diseñado. Dentro de dichas características destaca la propuesta de un modo de verificación híbrido aplicable a cualquier rama de la biometría y un programa de evaluación capaz de medir, graficar, y comparar las configuraciones de cada uno de los sistemas de reconocimiento implementados. Otra característica destacable es la herramienta programada para la creación de grafos personalizados y generación de modelos, aplicable a reconocimiento de objetos en general. En la cuarta y última parte, se presentan al principio los resultados obtenidos. En ellos se contemplan y analizan las comparaciones entre las distintas configuraciones de los sistemas de reconocimiento implementados para diferentes bases de datos (una de ellas formada con imágenes con condiciones de adquisición no controladas). También se miden las tasas de error del modo de verificación híbrido propuesto. Finalmente, se extraen conclusiones, y se proponen líneas futuras de investigación. ABSTRACT The main goal of this project is to develop a facial recognition system. To meet this end, it was necessary to accomplish a series of specific objectives, which were: researching on the existing face recognition technics nowadays, choosing an application where face recognition might be useful, design and develop a face recognition system using MATLAB, and measure the performance of the implemented system. This document is divided into four parts: INTRODUCTION, THEORTICAL FRAMEWORK, IMPLEMENTATION, and RESULTS, CONCLUSSIONS AND FUTURE RESEARCH STUDIES. In the first part, an introduction is made in relation to facial recognition nowadays, and the techniques used to develop a biometric system of this kind. Furthermore, the techniques chosen to be part of the implementation are justified. In the second part, the general structure and the two basic modes of a biometric system are explained. The error rates used to evaluate and compare the performance of a biometric system are explained as well. Moreover, a description of the concepts and methods used to detect and recognize faces in the third part is made. The design, characteristics, and applications of the systems put into practice are explained in the third part. The implementation consists in developing a program with graphical user interface made in MATLAB. This program uses four face recognition systems, each of them based on a different technique: Principal Component Analysis (PCA), Fisher’s Linear Discriminant (FLD), Gabor wavelets, and Elastic Graph Matching (EGM). In addition, with this implementation it is possible to create and edit one´s tagged database, giving it a direct application. Also, a group of characteristics are proposed to enhance the functionalities of the program designed. Among these characteristics, three of them should be emphasized in this summary: A proposal of an hybrid verification mode of a biometric system; and an evaluation program capable of measuring, plotting curves, and comparing different configurations of each implemented recognition system; and a tool programmed to create personalized graphs and models (tagged graph associated to an image of a person), which can be used generally in object recognition. In the fourth and last part of the project, the results of the comparisons between different configurations of the systems implemented are shown for three databases (One of them created with pictures taken under non-controlled environments). The error rates of the proposed hybrid verification mode are measured as well. Finally, conclusions are extracted and future research studies are proposed.
Resumo:
Sight distance plays an important role in road traffic safety. Two types of Digital Elevation Models (DEMs) are utilized for the estimation of available sight distance in roads: Digital Terrain Models (DTMs) and Digital Surface Models (DSMs). DTMs, which represent the bare ground surface, are commonly used to determine available sight distance at the design stage. Additionally, the use of DSMs provides further information about elements by the roadsides such as trees, buildings, walls or even traffic signals which may reduce available sight distance. This document analyses the influence of three classes of DEMs in available sight distance estimation. For this purpose, diverse roads within the Region of Madrid (Spain) have been studied using software based on geographic information systems. The study evidences the influence of using each DEM in the outcome as well as the pros and cons of using each model.
Resumo:
Si no tenemos en cuenta posibles procesos subyacentes con significado físico, químico, económico, etc., podemos considerar una serie temporal como un mero conjunto ordenado de valores y jugar con él algún inocente juego matemático como transformar dicho conjunto en otro objeto con la ayuda de una operación matemática para ver qué sucede: qué propiedades del conjunto original se conservan, cuáles se transforman y cómo, qué podemos decir de alguna de las dos representaciones matemáticas del objeto con sólo atender a la otra... Este ejercicio sería de cierto interés matemático por sí solo. Ocurre, además, que las series temporales son un método universal de extraer información de sistemas dinámicos en cualquier campo de la ciencia. Esto hace ganar un inesperado interés práctico al juego matemático anteriormente descrito, ya que abre la posibilidad de analizar las series temporales (vistas ahora como evolución temporal de procesos dinámicos) desde una nueva perspectiva. Hemos para esto de asumir la hipótesis de que la información codificada en la serie original se conserva de algún modo en la transformación (al menos una parte de ella). El interés resulta completo cuando la nueva representación del objeto pertencece a un campo de la matemáticas relativamente maduro, en el cual la información codificada en dicha representación puede ser descodificada y procesada de manera efectiva. ABSTRACT Disregarding any underlying process (and therefore any physical, chemical, economical or whichever meaning of its mere numeric values), we can consider a time series just as an ordered set of values and play the naive mathematical game of turning this set into a different mathematical object with the aids of an abstract mapping, and see what happens: which properties of the original set are conserved, which are transformed and how, what can we say about one of the mathematical representations just by looking at the other... This exercise is of mathematical interest by itself. In addition, it turns out that time series or signals is a universal method of extracting information from dynamical systems in any field of science. Therefore, the preceding mathematical game gains some unexpected practical interest as it opens the possibility of analyzing a time series (i.e. the outcome of a dynamical process) from an alternative angle. Of course, the information stored in the original time series should be somehow conserved in the mapping. The motivation is completed when the new representation belongs to a relatively mature mathematical field, where information encoded in such a representation can be effectively disentangled and processed. This is, in a nutshell, a first motivation to map time series into networks.
Resumo:
En los últimos años, y a la luz de los retos a los que se enfrenta la sociedad, algunas voces están urgiendo a dejar atrás los paradigmas modernos —eficiencia y rendimiento— que sustentan a las llamadas prácticas sostenibles, y están alentando a repensar, en el contexto de los cambios científicos y culturales, una agenda termodinámica y ecológica para la arquitectura. La cartografía que presenta esta tesis doctoral se debe de entender en este contexto. Alineándose con esta necesidad, se esfuerza por dar a este empeño la profundidad histórica de la que carece. De este modo, el esfuerzo por dotar a la arquitectura de una agenda de base científica, se refuerza con una discusión cultural sobre el progresivo empoderamiento de las ideas termodinámicas en la arquitectura. Esta cartografía explora la historia de las ideas termodinámicas en la arquitectura desde el principio del siglo XX hasta la actualidad. Estudia, con el paso de los sistemas en equilibrio a los alejados del equilibrio como trasfondo, como las ideas termodinámicas han ido infiltrándose gradualmente en la arquitectura. Este esfuerzo se ha planteado desde un doble objetivo. Primero, adquirir una distancia crítica respecto de las prácticas modernas, de modo que se refuerce y recalibre el armazón intelectual y las herramientas sobre las que se está apoyando esta proyecto termodinámico. Y segundo, desarrollar una aproximación proyectual sobre la que se pueda fundamentar una agenda termodinámica para la arquitectura, asunto que se aborda desde la firme creencia de que es posible una re-descripción crítica de la realidad. De acuerdo con intercambios de energía que se dan alrededor y a través de un edificio, esta cartografía se ha estructurado en tres entornos termodinámicos, que sintetizan mediante un corte transversal la variedad de intercambios de energía que se dan en la arquitectura: -Cualquier edificio, como constructo espacial y material inmerso en el medio, intercambia energía mediante un flujo bidireccional con su contexto, definiendo un primer entorno termodinámico al que se denomina atmósferas territoriales. -En el interior de los edificios, los flujos termodinámicos entre la arquitectura y su ambiente interior definen un segundo entorno termodinámico, atmósferas materiales, que explora las interacciones entre los sistemas materiales y la atmósfera interior. -El tercer entorno termodinámico, atmosferas fisiológicas, explora los intercambios de energía que se dan entre el cuerpo humano y el ambiente invisible que lo envuelve, desplazando el objeto de la arquitectura desde el marco físico hacia la interacción entre la atmósfera y los procesos somáticos y percepciones neurobiológicas de los usuarios. A través de estos tres entornos termodinámicos, esta cartografía mapea aquellos patrones climáticos que son relevantes para la arquitectura, definiendo tres situaciones espaciales y temporales sobre las que los arquitectos deben actuar. Estudiando las conexiones entre la atmósfera, la energía y la arquitectura, este mapa presenta un conjunto de ideas termodinámicas disponibles —desde los parámetros de confort definidos por la industria del aire acondicionado hasta las técnicas de acondicionamiento pasivo— que, para ser efectivas, necesitan ser evaluadas, sintetizadas y recombinadas a la luz de los retos de nuestro tiempo. El resultado es un manual que, mediando entre la arquitectura y la ciencia, y a través de este relato histórico, acorta la distancia entre la arquitectura y la termodinámica, preparando el terreno para la definición de una agenda termodinámica para el proyecto de arquitectura. A este respecto, este mapa se entiende como uno de los pasos necesarios para que la arquitectura recupere la capacidad de intervenir en la acuciante realidad a la que se enfrenta. ABSTRACT During the last five years, in the light of current challenges, several voices are urging to leave behind the modern energy paradigms —efficiency and performance— on which the so called sustainable practices are relying, and are posing the need to rethink, in the light of the scientific and cultural shifts, the thermodynamic and ecological models for architecture. The historical cartography this PhD dissertation presents aligns with this effort, providing the cultural background that this endeavor requires. The drive to ground architecture on a scientific basis needs to be complemented with a cultural discussion of the history of thermodynamic ideas in architecture. This cartography explores the history of thermodynamic ideas in architecture, from the turn of the 20th century until present day, focusing on the energy interactions between architecture and atmosphere. It surveys the evolution of thermodynamic ideas —the passage from equilibrium to far from equilibrium thermodynamics— and how these have gradually empowered within design and building practices. In doing so, it has posed a double-objective: first, to acquire a critical distance with modern practices which strengthens and recalibrates the intellectual framework and the tools in which contemporary architectural endeavors are unfolding; and second, to develop a projective approach for the development a thermodynamic agenda for architecture and atmosphere, with the firm belief that a critical re-imagination of reality is possible. According to the different systems which exchange energy across a building, the cartography has been structured in three particular thermodynamic environments, providing a synthetic cross-section of the range of thermodynamic exchanges which take place in architecture: -Buildings, as spatial and material constructs immersed in the environment, are subject to a contiuous bidirectional flow of energy with its context, defining a the first thermodynamic environment called territorial atmospheres. -Inside buildings, the thermodynamic flow between architecture and its indoor ambient defines a second thermodynamic environment, material atmospheres, which explores the energy interactions between the indoor atmosphere and its material systems. -The third thermodynamic environment, physiological atmospheres, explores the energy exchanges between the human body and the invisible environment which envelopes it, shifting design drivers from building to the interaction between the atmosphere and the somatic processes and neurobiological perceptions of users. Through these three thermodynamic environments, this cartography maps those climatic patterns which pertain to architecture, providing three situations on which designers need to take stock. Studying the connections between atmosphere, energy and architecture this map presents, not a historical paradigm shift from mechanical climate control to bioclimatic passive techniques, but a range of available thermodynamic ideas which need to be assessed, synthesized and recombined in the light of the emerging challenges of our time. The result is a manual which, mediating between architecture and science, and through this particular historical account, bridges the gap between architecture and thermodynamics, paving the way to a renewed approach to atmosphere, energy and architecture. In this regard this cartography is understood as one of the necessary steps to recuperate architecture’s lost capacity to intervene in the pressing reality of contemporary societies.
Resumo:
La fotosíntesis es el proceso biológico que permite la producción primaria y, por tanto, la vida en nuestro planeta. La tasa fotosintética viene determinada por la ‘maquinaria’ bioquímica y las resistencias difusivas al paso del CO2 desde la atmósfera hasta su fijación en el interior de los cloroplastos. Históricamente la mayor resistencia difusiva se ha atribuido al cierre estomático, sin embargo ahora sabemos, debido a las mejoras en las técnicas experimentales, que existe también una resistencia grande que se opone a la difusión del CO2 desde los espacios intercelulares a los lugares de carboxilación. Esta resistencia, llamada normalmente por su inversa: la conductancia del mesófilo (gm), puede ser igual o incluso superior a la resistencia debida por el cierre estomático. En la presente tesis doctoral he caracterizado la limitación que ejerce la resistencia del mesófilo a la fijación de CO2 en diversas especies forestales y en distintos momentos de su ciclo biológico. En la fase de regenerado, hemos estudiado tres situaciones ambientales relevantes en el mayor éxito de su supervivencia, que son: el déficit hídrico, su interacción con la irradiancia y el paso del crecimiento en la sombra a mayor irradiancia, como puede suceder tras la apertura de un hueco en el dosel forestal. En la fase de arbolado adulto se ha caracterizado el estado hídrico y el intercambio gaseoso en hojas desarrolladas a distinta irradiancia dentro del dosel vegetal durante tres años contrastados en pluviometría. Para cada tipo de estudio se han empleado las técnicas ecofisiológicas más pertinentes para evaluar el estado hídrico y el intercambio gaseoso. Por su complejidad y la falta de un método que permita su cuantificación directa, la gm ha sido evaluada por los métodos más usados, que son: la discriminación isotópica del carbono 13, el método de la J variable, el método de la J constante y el método de la curvatura. Los resultados más significativos permiten concluir que la limitación relativa a la fotosíntesis por la conductancia estomática, del mesófilo y bioquímica es dependiente de la localización de la hoja en el dosel forestal. Por primera vez se ha documentado que bajo estrés hídrico las hojas desarrolladas a la sombra estuvieron más limitadas por una reducción en la gm, mientras que las hojas desarrolladas a pleno sol estuvieron más limitadas por reducción mayor de la conductancia estomática (gsw). Encontramos buena conexión entre el aparato fotosintético foliar y el sistema hídrico debido al alto grado de correlación entre la conductancia hidráulica foliar aparente y la concentración de CO2 en los cloroplastos en distintas especies forestales. Además, hemos mostrado diferentes pautas de regulación del intercambio gaseoso según las particularidades ecológicas de las especies estudiadas. Tanto en brinzales crecidos de forma natural y en el arbolado adulto como en plántulas cultivadas en el invernadero la ontogenia afectó a las limitaciones de la fotosíntesis producidas por estrés hídrico, resultando que las limitaciones estomáticas fueron dominantes en hojas más jóvenes mientras que las no estomáticas en hojas más maduras. La puesta en luz supuso un gran descenso en la gm durante los días siguientes a la transferencia, siendo este efecto mayor según el grado de sombreo previo en el que se han desarrollado las hojas. La aclimatación de las hojas a la alta irradiancia estuvo ligada a las modificaciones anatómicas foliares y al estado de desarrollo de la hoja. El ratio entre la gm/gsw determinó la mayor eficiencia en el uso del agua y un menor estado oxidativo durante la fase de estrés hídrico y su posterior rehidratación, lo cual sugiere el uso de este ratio en los programas de mejora genética frente al estrés hídrico. Debido a que la mayoría de modelos de estimación de la producción primaria bruta (GPP) de un ecosistema no incluye la gm, los mismos están incurriendo en una sobreestimación del GPP particularmente bajo condiciones de estrés hídrico, porque más de la mitad de la reducción en fotosíntesis en hojas desarrolladas a la sombra se debe a la reducción en gm. Finalmente se presenta un análisis de la importancia en las estimas de la gm bajo estrés hídrico de la refijación del CO2 emitido en la mitocondria a consecuencia de la fotorrespiración y la respiración mitocondrial en luz. ABSTRACT Photosynthesis is the biological process that supports primary production and, therefore, life on our planet. Rates of photosynthesis are determined by biochemical “machinery” and the diffusive resistance to the transfer of CO2 from the atmosphere to the place of fixation within the chloroplasts. Historically the largest diffusive resistance was attributed to the stomata, although we now know via improvements in experimental techniques that there is also a large resistance from sub-stomatal cavities to sites of carboxylation. This resistance, commonly quantified as mesophyll conductance (gm), can be as large or even larger than that due to stomatal resistance. In the present PhD I have characterized the limitation exerted by the mesophyll resistance to CO2 fixation in different forest species at different stages of their life cycle. In seedlings, we studied three environmental conditions that affect plant fitness, namely, water deficit, the interaction of water deficit with irradiance, and the transfer of plants grown in the shade to higher irradiance as can occur when a gap opens in the forest canopy. At the stage of mature trees we characterized water status and gas exchange in leaves developed at different irradiance within the canopy over the course of three years that had contrasting rainfall. For each study we used the most relevant ecophysiological techniques to quantify water relations and gas exchange. Due to its complexity and the lack of a method that allows direct quantification, gm was estimated by the most commonly used methods which are: carbon isotope discrimination, the J-variable, constant J and the curvature method The most significant results suggest that the relative limitation of photosynthesis by stomata, mesophyll and biochemistry depending on the position of the leaf within the canopy. For the first time it was documented that under water stress shaded leaves were more limited by a reduction in gm, while the sun-adapted leaves were more limited by stomatal conductance (gsw). The connection between leaf photosynthetic apparatus and the hydraulic system was shown by the good correlations found between the apparent leaf hydraulic conductance and the CO2 concentration in the chloroplasts in shade- and sun-adapted leaves of several tree species. In addition, we have revealed different patterns of gas exchange regulation according to the functional ecology of the species studied. In field grown trees and greenhouse-grown seedlings ontogeny affected limitations of photosynthesis due to water stress with stomatal limitations dominating in young leaves and nonstomatal limitations in older leaves. The transfer to high light resulted in major decrease of gm during the days following the transfer and this effect was greater as higher was the shade which leaves were developed. Acclimation to high light was linked to the leaf anatomical changes and the state of leaf development. The ratio between the gm/gsw determined the greater efficiency in water use and reduced the oxidative stress during the water stress and subsequent rehydration, suggesting the use of this ratio in breeding programs aiming to increase avoidance of water stress. Because most models to estimate gross primary production (GPP) of an ecosystem do not include gm, they are incurring an overestimation of GPP particularly under conditions of water stress because more than half of An decrease in shade-developed leaves may be due to reduction in gm. Finally, we present an analysis of the importance of how estimates of gm under water stress are affected by the refixation of CO2 that is emitted from mitochondria via photorespiration and mitochondrial respiration in light.
Resumo:
Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.