1000 resultados para Densidad de plantación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente memoria de tesis tiene como objetivo principal la caracterización mecánica en función de la temperatura de nueve aleaciones de wolframio con contenidos diferentes en titanio, vanadio, itria y lantana. Las aleaciones estudiadas son las siguientes: W-0.5%Y2O3, W-2%Ti, W-2% Ti-0.5% Y2O3, W-4% Ti-0.5% Y2O3, W-2%V, W- 2%Vmix, W-4%V, W-1%La2O3 and W-4%V-1%La2O3. Todos ellos, además del wolframio puro se fabrican mediante compresión isostática en caliente (HIP) y son suministradas por la Universidad Carlos III de Madrid. La investigación se desarrolla a través de un estudio sistemático basado en ensayos físicos y mecánicos, así como el análisis post mortem de las muestras ensayadas. Para realizar dicha caracterización mecánica se aplican diferentes ensayos mecánicos, la mayoría de ellos realizados en el intervalo de temperatura de 25 a 1000 º C. Los ensayos de caracterización que se llevan a cabo son: • Densidad • Dureza Vicker • Módulo de elasticidad y su evolución con la temperatura • Límite elástico o resistencia a la flexión máxima, y su evolución con la temperatura • Resistencia a la fractura y su comportamiento con la temperatura. • Análisis microestructural • Análisis fractográfico • Análisis de la relación microestructura-comportamiento macroscópico. El estudio comienza con una introducción acerca de los sistemas en los que estos materiales son candidatos para su aplicación, para comprender las condiciones a las que los materiales serán expuestos. En este caso, el componente que determina las condiciones es el Divertor del reactor de energía de fusión por confinamiento magnético. Parece obvio que su uso en los componentes del reactor de fusión, más exactamente como materiales de cara al plasma (Plasma Facing Components o PFC), hace que estas aleaciones trabajen bajo condiciones de irradiación de neutrones. Además, el hecho de que sean materiales nuevos hace necesario un estudio previo de las características básicas que garantice los requisitos mínimos antes de realizar un estudio más complejo. Esto constituye la principal motivación de la presente investigación. La actual crisis energética ha llevado a aunar esfuerzos en el desarrollo de nuevos materiales, técnicas y dispositivos para la aplicación en la industria de la energía nuclear. El desarrollo de las técnicas de producción de aleaciones de wolframio, con un punto de fusión muy alto, requiere el uso de precursores de sinterizado para lograr densificaciones más altas y por lo tanto mejores propiedades mecánicas. Este es el propósito de la adición de titanio y vanadio en estas aleaciones. Sin embargo, uno de los principales problemas de la utilización de wolframio como material estructural es su alta temperatura de transición dúctil-frágil. Esta temperatura es característica de materiales metálicos con estructura cúbica centrada en el cuerpo y depende de varios factores metalúrgicos. El proceso de recristalización aumenta esta temperatura de transición. Los PFC tienen temperaturas muy altas de servicio, lo que facilita la recristalización del metal. Con el fin de retrasar este proceso, se dispersan partículas insolubles en el material permitiendo temperaturas de servicio más altas. Hasta ahora se ha utilizado óxidos de torio, lantano e itrio como partículas dispersas. Para entender cómo los contenidos en algunos elementos y partículas de óxido afectan a las propiedades de wolframio se estudian las aleaciones binarias de wolframio en comparación con el wolframio puro. A su vez estas aleaciones binarias se utilizan como material de referencia para entender el comportamiento de las aleaciones ternarias. Dada la estrecha relación entre las propiedades del material, la estructura y proceso de fabricación, el estudio se completa con un análisis fractográfico y micrográfico. El análisis fractográfico puede mostrar los mecanismos que están implicados en el proceso de fractura del material. Por otro lado, el estudio micrográfico ayudará a entender este comportamiento a través de la identificación de las posibles fases presentes. La medida del tamaño de grano es una parte de la caracterización microestructural. En esta investigación, la medida del tamaño de grano se llevó a cabo por ataque químico selectivo para revelar el límite de grano en las muestras preparadas. Posteriormente las micrografías fueron sometidas a tratamiento y análisis de imágenes. El documento termina con una discusión de los resultados y la compilación de las conclusiones más importantes que se alcanzan después del estudio. Actualmente, el desarrollo de nuevos materiales para aplicación en los componentes de cara al plasma continúa. El estudio de estos materiales ayudará a completar una base de datos de características que permita hacer una selección de ellos más fiable. The main goal of this dissertation is the mechanical characterization as a function of temperature of nine tungsten alloys containing different amounts of titanium, vanadium and yttrium and lanthanum oxide. The alloys under study were the following ones: W-0.5%Y2O3, W-2%Ti, W-2% Ti-0.5% Y2O3, W-4% Ti-0.5% Y2O3, W-2%V, W- 2%Vmix, W-4%V, W-1%La2O3 and W-4%V-1%La2O3. All of them, besides pure tungsten, were manufactured using a Hot Isostatic Pressing (HIP) process and they were supplied by the Universidad Carlos III de Madrid. The research was carried out through a systematic study based on physical and mechanical tests as well as the post mortem analysis of tested samples. Diverse mechanical tests were applied to perform this characterization; most of them were conducted at temperatures in the range 25-1000 ºC. The following characterization tests were performed: • Density • Vickers hardness • Elastic modulus • Yield strength or ultimate bending strength, and their evolution with temperature • Fracture toughness and its temperature behavior • Microstructural analysis • Fractographical analysis • Microstructure-macroscopic relationship analysis This study begins with an introduction regarding the systems where these materials could be applied, in order to establish and understand their service conditions. In this case, the component that defines the conditions is the Divertor of magnetic-confinement fusion reactors. It seems obvious that their use as fusion reactor components, more exactly as plasma facing components (PFCs), makes these alloys work under conditions of neutron irradiation. In addition to this, the fact that they are novel materials demands a preliminary study of the basic characteristics which will guarantee their minimum requirements prior to a more complex study. This constitutes the motivation of the present research. The current energy crisis has driven to join forces so as to develop new materials, techniques and devices for their application in the nuclear energy industry. The development of production techniques for tungsten-based alloys, with a very high melting point, requires the use of precursors for sintering to achieve higher densifications and, accordingly, better mechanical properties. This is the purpose of the addition of titanium and vanadium to these alloys. Nevertheless, one of the main problems of using tungsten as structural material is its high ductile-brittle transition temperature. This temperature is characteristic of metallic materials with body centered cubic structure and depends on several metallurgical factors. The recrystallization process increases their transition temperature. Since PFCs have a very high service temperature, this facilitates the metal recrystallization. In order to inhibit this process, insoluble particles are dispersed in the material allowing higher service temperatures. So far, oxides of thorium, lanthanum and yttrium have been used as dispersed particles. Tungsten binary alloys are studied in comparison with pure tungsten to understand how the contents of some elements and oxide particles affect tungsten properties. In turn, these binary alloys are used as reference materials to understand the behavior of ternary alloys. Given the close relationship between the material properties, structure and manufacturing process, this research is completed with a fractographical and micrographic analysis. The fractographical analysis is aimed to show the mechanisms that are involved in the process of the material fracture. Besides, the micrographic study will help to understand this behavior through the identification of present phases. The grain size measurement is a crucial part of the microstructural characterization. In this work, the measurement of grain size was carried out by chemical selective etching to reveal the boundary grain on prepared samples. Afterwards, micrographs were subjected to both treatment and image analysis. The dissertation ends with a discussion of results and the compilation of the most important conclusions reached through this work. The development of new materials for plasma facing components application is still under study. The analysis of these materials will help to complete a database of the features that will allow a more reliable materials selection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se analizan, para Cataluña, los principales parámetros que afectan a la producción de corcho: densidad superficial, calidad y precio medio del corcho, turno de descorche. Los resultados reflejan la elevada variabilidad en la edad del corcho, la homogeneidad de la densidad superficial y la mayor calidad del corcho procedente de los alcornocales del litoral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudio profundiza en la estimación de variables forestales a partir de información LiDAR en el Valle de la Fuenfría (Cercedilla, Madrid). Para ello se dispone de dos vuelos realizados con sensor LiDAR en los años 2002 y 2011 y en el invierno de 2013 se ha realizado un inventario de 60 parcelas de campo. En primer lugar se han estimado seis variables dasométricas (volumen, área basimétrica, biomasa total, altura dominante, densidad y diámetro medio cuadrático) para 2013, tanto a nivel de píxel como a nivel de rodal y monte. Se construyeron modelos de regresión lineal múltiple que permitieron estimar con precisión dichas variables. En segundo lugar, se probaron diferentes métodos para la estimación de la distribución diamétrica. Por un lado, el método de predicción de percentiles y, por otro lado, el método de predicción de parámetros. Este segundo método se probó para una función Weibull simple, una función Weibull doble y una combinación de ambas según la distribución que mejor se ajustaba a cada parcela. Sin embargo, ninguno de los métodos ha resultado suficientemente válido para predecir la distribución diamétrica. Por último se estimaron el crecimiento en volumen y área basimétrica a partir de la comparación de los vuelos del 2002 y 2011. A pesar de que la tecnología LiDAR era diferente y solo se disponía de un inventario completo, realizado en 2013, los modelos construidos presentan buenas bondades de ajuste. Asimismo, el crecimiento a nivel de pixel se ha mostrado estar relacionado de forma estadísticamente significativa con la pendiente, orientación y altitud media del píxel. ABSTRACT This project goes in depth on the estimation of forest attributes by means of LiDAR data in Fuenfria’s Valley (Cercedilla, Madrid). The available information was two LiDAR flights (2002 and 2011) and a forest inventory consisting of 60 plots (2013). First, six different dasometric attributes (volume, basal area, total aboveground biomass, top height, density and quadratic mean diameter) were estimated in 2013 both at a pixel, stand and forest level. The models were developed using multiple linear regression and were good enough to predict these attributes with great accuracy. Second, the measured diameter distribution at each plot was fitted to a simple and a double Weibull distribution and different methods for its estimation were tested. Neither parameter prediction method nor percentile prediction method were able to account for the diameter distribution. Finally, volume and top height growths were estimated comparing 2011 LiDAR flight with 2002 LiDAR flight. Even though the LiDAR technology was not the same and there was just one forest inventory with sample plots, the models properly explain the growth. Besides, growth at each pixel is significantly related to its average slope, orientation and altitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de una cámara fotogramétrica digital redunda en el aumento demostrable de calidad radiométrica debido a la mejor relación señal/ruido y a los 12 bits de resolución radiométrica por cada pixel de la imagen. Simultáneamente se consigue un notable ahorro de tiempo y coste gracias a la eliminación de las fases de revelado y escaneado de la película y al aumento de las horas de vuelo por día. De otra parte, el sistema láser aerotransportado (LIDAR - Light Detection and Ranging) es un sistema con un elevado rendimiento y rentabilidad para la captura de datos de elevaciones para generar un modelo digital del terreno (MDT) y también de los objetos sobre el terreno, permitiendo así alcanzar alta precisión y densidad de información. Tanto el sistema LIDAR como el sistema de cámara fotogramétrica digital se combinan con otras técnicas bien conocidas: el sistema de posicionamiento global (GPS - Global Positioning System) y la orientación de la unidad de medida inercial (IMU - Inertial Measure Units), que permiten reducir o eliminar el apoyo de campo y realizar la orientación directa de los sensores utilizando datos de efemérides precisas de los satélites. Combinando estas tecnologías, se va a proponer y poner en práctica una metodología para generación automática de ortofotos en países de América del Sur. Analizando la precisión de dichas ortofotos comparándolas con fuente de mayor exactitud y con las especificaciones técnicas del Plan Nacional de Ortofotografía Aérea (PNOA) se determinará la viabilidad de que dicha metodología se pueda aplicar a zonas rurales. ABSTRACT Using a digital photogrammetric camera results in a demonstrable increase of the radiometric quality due to a better improved signal/noise ratio and the radiometric resolution of 12 bits per pixel of the image. Simultaneously a significant saving of time and money is achieved thanks to the elimination of the developing and film scanning stages, as well as to the increase of flying hours per day. On the other hand, airborne laser system Light Detection and Ranging (LIDAR) is a system with high performance and yield for the acquisition of elevation data in order to generate a digital terrain model (DTM), as well as objects on the ground which allows to achieve high accuracy and data density. Both the LIDAR and the digital photogrammetric camera system are combined with other well known techniques: global positioning system (GPS) and inertial measurement unit (IMU) orientation, which are currently in a mature evolutionary stage, which allow to reduce and/or remove field support and perform a direct guidance of sensors using specific historic data from the satellites. By combining these technologies, a methodology for automatic generation of orthophotos in South American countries will be proposed and implemented. Analyzing the accuracy of these orthophotos comparing them with more accurate sources and technical specifications of the National Aerial Orthophoto (PNOA), the viability of whether this methodology should be applied to rural areas, will be determined.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se ha analizado la influencia que tienen ciertas imperfecciones en el borde de ataque de un perfil aerodinámico sobre el comportamiento aerodinámico general del mismo, centrándose fundamentalmente en la influencia sobre el coeficiente de sustentación máxima, coeficiente de resistencia y sobre la eficiencia aerodinámica del perfil, es decir sobre la relación entre la sustentación y la resistencia aerodinámicas. También se ha analizado su influencia en otros aspectos, como la entrada en pérdida, ángulo de ataque de sustentación máxima, ángulo de ataque de eficiencia máxima, coeficiente de momento aerodinámico y posición del centro aerodinámico. Estos defectos de forma en el borde de ataque pueden aparecer en algunos procesos de fabricación de determinados elementos aerodinámicos, como pueden ser las alas de pequeños aviones no tripulados o las palas de aeroturbina. Los perfiles se ha estudiado a bajos números de Reynolds debido a su uso reciente en una amplia gama de aplicaciones, desde vehículos aéreos no tripulados (UAV) hasta palas de aeroturbina de baja potencia, e incluso debido a su potencial utilización en aeronaves diseñadas para volar en atmósferas de baja densidad. El objeto de estudio de esta tesis no ha sido analizado en profundidad en la literatura científica, aunque sí que se ha estudiado por varios autores el comportamiento de perfiles a bajos números de Reynolds, con ciertas protuberancias sobre su superficie o también con formación de hielo en el borde de ataque. Para la realización de este estudio se han analizado perfiles de distinto tipo, perfiles simétricos y con curvatura, perfiles laminares, y todos ellos con igual o distinto espesor, con el objeto de obtener y comparar la influencia del fenómeno estudiado sobre cada tipo de perfil y así analizar su grado de sensibilidad a estas imperfecciones en la geometría del borde de ataque. Este trabajo ha sido realizado experimentalmente utilizando una túnel aerodinámico diseñado específicamente a tal efecto, así como una balanza electrónica para medir las fuerzas y los momentos sobre el perfil, y un escáner de presiones para medir la distribución de presiones sobre la superficie de los perfiles en determinados casos de interés. La finalidad de este estudio está orientada al establecimiento de criterios para cuantificar la influencia en la aerodinámica del perfil que tiene el hecho de que el borde de ataque presente una discontinuidad geométrica, con el objeto de poder establecer los límites de aceptación o rechazo de estas piezas en el momento de ser fabricadas. Del análisis de los casos estudiados se puede concluir que según aumenta el tamaño de la imperfección del borde de ataque, la sustentación aerodinámica máxima en general disminuye, al igual que la eficiencia aerodinámica máxima, pues la resistencia aerodinámica aumenta. Sin embargo, en algunos casos, para pequeños defectos se produce un efecto contrario. La sustentación máxima aumenta apreciablemente sin apenas pérdida de eficiencia aerodinámica máxima. ABSTRACT The aim of this thesis is to analyze the effects of leading edge imperfections on the aerodynamic characteristics of airfoils at low Reynolds numbers. The leading edge imperfection here considered being a slight displacement of half airfoil with respect to the other. This study has focus on its influence on the airfoil’s aerodynamic lift, drag and on the aerodynamic efficiency of the airfoil, that is, the relationship between the aerodynamic lift and drag. It has also been studied how this fact may alter some other aerodynamic aspects of airfoils, such as stall, angle of attack of maximum lift, angle of maximum efficiency, aerodynamic moment coefficient and aerodynamic center position. These imperfections in the leading edge may appear in some manufacturing processes of certain aerodynamic elements, such as unmanned aircraft wings or wind turbine blades. The study has focused on the analysis of the behavior at low Reynolds numbers due to recent use of low Reynolds numbers airfoils in a wide range of applications, from unmanned aerial vehicles (UAV) to low power wind turbine blades, or even due to their potential use in aircraft designed to fly in low density atmospheres as the one existing in Mars. This phenomenon has not been deeply analyzed in the literature, although several authors have discussed on airfoils at low Reynolds number, with leading edge protuberances or airfoils with ice accretions. Various types of airfoils have been analyzed, laminar and non-laminar, symmetric and curved airfoils, and airfoils with different thickness, in order to compare the degree of influence of the phenomenon studied on each airfoil type and thus, to estimate the degree of sensitivity to the anomaly geometry. The study was carried out experimentally using a test chamber designed specifically for this purpose, as well as an electronic balance to measure the forces and moments on the airfoil, and a pressure scanner to measure distribution of pressures in certain cases. The main purpose of this research is to establish a criteria for quantifying the influence that a slight displacement of half aerofoil with respect to the other has in the degradation of aerodynamics characteristics, aiming at establishing the acceptance limits for these pieces when they are manufactured, according to the type of airfoil used. Based on the results obtained from the analysis of the cases under study it can be concluded that displacements, within the range of study, decreases maximum aerodynamic lift, but the aerodynamic drag increases, and consequently there is a reduction of aerodynamic efficiency. However, in some cases, for small defects opposite effect occurs. The maximum lift increases significantly with little loss of maximum aerodynamic efficiency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El dolor es un síntoma frecuente en la práctica médica. En España, un estudio realizado en el año 2000 demostró que cada médico atiende un promedio de 181 pacientes con dolor por mes, la mayoría de ellos con dolor crónico moderado1. Del 7%-8% de la población europea está afectada y hasta el 5% puede ser grave2-3, se estima, que afecta a más de dos millones de españoles4. En la consulta de Atención Primaria, los pacientes con dolor neuropático tienen tasas de depresión mucho mayores 5-6-7. El dolor neuropático8 es el dolor causado por daño o enfermedad que afecta al sistema somato-sensorial, es un problema de salud pública con un alto coste laboral, debido a que existe cierto desconocimiento de sus singularidades, tanto de su diagnóstico como de su tratamiento, que al fallar, el dolor se perpetúa y se hace más rebelde a la hora de tratarlo, en la mayoría de las ocasiones pasa a ser crónico. Los mecanismos fisiopatológicos son evolutivos, se trata de un proceso progresivo e integrado que avanza si no recibe tratamiento, ocasionando graves repercusiones en la calidad de vida de los pacientes afectados9. De acuerdo a Prusiner (premio nobel de medicina 1997), en todas las enfermedades neurodegenerativas hay algún tipo de proceso anormal de la función neuronal. Las enfermedades neurodegenerativas son la consecuencia de anormalidades en el proceso de ciertas proteínas que intervienen en el ciclo celular, por lo tanto da lugar al cúmulo de las mismas en las neuronas o en sus proximidades, disminuyendo o anulando sus funciones, como la enfermedad de Alzheimer y el mismo SXF. La proteína FMRP (Fragile Mental Retardation Protein), esencial para el desarrollo cognitivo normal, ha sido relacionada con la vía piramidal del dolor10-11-12. El Síndrome de X Frágil13-14 (SXF), se debe a la mutación del Gen (FMR-1). Como consecuencia de la mutación, el gen se inactiva y no puede realizar la función de sintetizar la proteína FMRP. Por su incidencia se le considera la primera causa de Deficiencia Mental Hereditaria sólo superada por el Síndrome de Down. La electroencefalografía (EEG) es el registro de la actividad bioeléctrica cerebral que ha traído el desarrollo diario de los estudios clínicos y experimentales para el descubrimiento, diagnóstico y tratamiento de un gran número de anormalidades neurológicas y fisiológicas del cerebro y el resto del sistema nervioso central (SNC) incluyendo el dolor. El objetivo de la presente investigación es por medio de un estudio multimodal, desarrollar nuevas formas de presentación diagnóstica mediante técnicas avanzadas de procesado de señal y de imagen, determinando así los vínculos entre las evaluaciones cognitivas y su correlación anatómica con la modulación al dolor presente en patologías relacionadas con proteína FMRP. Utilizando técnicas biomédicas (funcionalestructural) para su caracterización. Para llevar a cabo esta tarea hemos utilizado el modelo animal de ratón. Nuestros resultados en este estudio multimodal demuestran que hay alteraciones en las vías de dolor en el modelo animal FMR1-KO, en concreto en la modulación encefálica (dolor neuropático), los datos se basan en los resultados del estudio estructural (imagen histología), funcional (EEG) y en pruebas de comportamiento (Laberinto de Barnes). En la Histología se muestra una clara asimetría estructural en el modelo FMR1 KO con respecto al control WT, donde el hemisferio Izquierdo tiene mayor densidad de masa neuronal en KO hembras 56.7%-60.8%, machos 58.3%-61%, en WT hembras 62.7%-62.4%, machos 55%-56.2%, hemisferio derecho-izquierdo respectivamente, esto refleja una correlación entre hemisferios muy baja en los sujetos KO (~50%) con respecto a los control WT (~90%). Se encontró correlación significativa entre las pruebas de memoria a largo plazo con respecto a la asimetría hemisférica (r = -0.48, corregido <0,05). En el estudio de comportamiento también hay diferencias, los sujetos WT tuvieron 22% un de rendimiento en la memoria a largo plazo, mientras que en los machos hay deterioro de memoria de un 28% que se corresponden con la patología en humanos. En los resultados de EEG estudiados en el hemisferio izquierdo, en el área de la corteza insular, encuentran que la latencia de la respuesta al potencial evocado es menor (22vs32 15vs96seg), la intensidad de la señal es mayor para los sujetos experimentales FMR1 KO frente a los sujetos control, esto es muy significativo dados los resultados en la histología (140vs129 145vs142 mv). Este estudio multimodal corrobora que las manifestaciones clínicas del SXF son variables dependientes de la edad y el sexo. Hemos podido corroborar en el modelo animal que en la etapa de adulto, los varones con SXF comienzan a desarrollar problemas en el desempeño de tareas que requieren la puesta en marcha de la función ejecutiva central de la memoria de trabajo (almacenamiento temporal). En el análisis del comportamiento es difícil llegar a una conclusión objetiva, se necesitan más estudios en diferentes etapas de la vida corroborados con resultados histológicos. Los avances logrados en los últimos años en su estudio han sido muy positivos, de tal modo que se están abriendo nuevas vías de investigación en un conjunto de procesos que representan un gran desafío a problemas médicos, asistenciales, sociales y económicos a los que se enfrentan los principales países desarrollados, con un aumento masivo de las expectativas de vida y de calidad. Las herramientas utilizadas en el campo de las neurociencias nos ofrecen grandes posibilidades para el desarrollo de estrategias que permitan ser utilizadas en el área de la educación, investigación y desarrollo. La genética determina la estructura del cerebro y nuestra investigación comprueba que la ausencia de FMRP también podría estar implicada en la modulación del dolor como parte de su expresión patológica siendo el modelo animal un punto importante en la investigación científica fundamental para entender el desarrollo de anormalidades en el cerebro. ABSTRACT Pain is a common symptom in medical practice. In Spain, a study conducted in 2000 each medical professional treats an average of 181 patients with pain per month, most of them with chronic moderate pain. 7% -8% of the European population is affected and up to 5% can be serious, it is estimated to affect more than two million people in Spain. In Primary Care, patients with neuropathic pain have much higher rates of depression. Neuropathic pain is caused by damage or disease affecting the somatosensory system, is a public health problem with high labor costs, there are relatively unfamiliar with the peculiarities in diagnosis and treatment, failing that, the pain is perpetuated and becomes rebellious to treat, in most cases becomes chronic. The pathophysiological mechanisms are evolutionary, its a progressive, if untreated, causing severe impact on the quality of life of affected patients. According to Prusiner (Nobel Prize for Medicine 1997), all neurodegenerative diseases there is some abnormal process of neuronal function. Neurodegenerative diseases are the result of abnormalities in the process of certain proteins involved in the cell cycle, reducing or canceling its features such as Alzheimer's disease and FXS. FMRP (Fragile Mental Retardation Protein), is essential for normal cognitive development, and has been linked to the pyramidal tract pain. Fragile X Syndrome (FXS), is due to mutation of the gene (FMR-1). As a consequence of the mutation, the gene is inactivated and can not perform the function of FMRP synthesize. For its incidence is considered the leading cause of Mental Deficiency Hereditary second only to Down Syndrome. Electroencephalography (EEG) is the recording of bioelectrical brain activity, is a advancement of clinical and experimental studies for the detection, diagnosis and treatment of many neurological and physiological abnormalities of the brain and the central nervous system, including pain. The objective of this research is a multimodal study, is the development of new forms of presentation using advanced diagnostic techniques of signal processing and image, to determine the links between cognitive evaluations and anatomic correlation with pain modulation to this protein FMRP-related pathologies. To accomplish this task have used the mouse model. Our results in this study show alterations in multimodal pain pathways in FMR1-KO in brain modulation (neuropathic pain), the data are based on the results of the structural study (histology image), functional (EEG) testing and behavior (Barnes maze). Histology In structural asymmetry shown in FMR1 KO model versus WT control, the left hemisphere is greater density of neuronal mass (KO females 56.7% -60.8%, 58.3% -61% males, females 62.7% -62.4 WT %, males 55% -56.2%), respectively right-left hemisphere, this reflects a very low correlation between hemispheres in KO (~ 50%) subjects compared to WT (~ 90%) control. Significant correlation was found between tests of long-term memory with respect to hemispheric asymmetry (r = -0.48, corrected <0.05). In the memory test there are differences too, the WT subjects had 22% yield in long-term memory, in males there memory impairment 28% corresponding to the condition in humans. The results of EEG studied in the left hemisphere, in insular cortex area, we found that the latency of the response evoked potential is lower (22vs32 15vs96seg), the signal strength is higher for the experimental subjects versus FMR1 KO control subjects, this is very significant given the results on histology (140vs129 145vs142 mv). This multimodal study confirms that the clinical manifestations of FXS are dependent variables of age and sex. We have been able to corroborate in the animal model in the adult stage, males with FXS begin developing problems in the performance of tasks that require the implementation of the central executive function of working memory (temporary storage). In behavior analysis is difficult to reach an objective conclusion, more studies are needed in different life stages corroborated with histologic findings. Advances in recent years were very positive, being opened new lines of research that represent a great challenge to physicians, health care, social and economic problems facing the major developed countries, with a massive increase in life expectancy and quality. The tools used in the field of neuroscience offer us great opportunities for the development of strategies to be used in the area of education, research and development. Genetics determines the structure of the brain and our research found that the absence of FMRP might also be involved in the modulation of pain as part of their pathological expression being an important animal model in basic scientific research to understand the development of abnormalities in brain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del trabajo fin de máster ha sido el estudio de la capacidad de los modelos de daño escalar en reproducir la localización de deformaciones en el hormigón. Para ello se ha utilizado un modelo de daño local con el ablandamiento regularizado (aproximación de fisura difusa) y un modelo de daño no local con formulación integral. Los análisis numéricos se han realizado con el código de elementos finitos Code-Aster. Las actividades realizadas en el trabajo fin de máster han sido: - resumen de los modelos existentes para la reproducción del fallo material. - descripción y estudio del comportamiento de un modelo de daño local "solo tracción" para el hormigón. - regularización del ablandamiento en el modelo de daño local para el modo de fractura tipo I. - descripción de los modelos de daño no local, en particular la formulación de gradiente implícito. - estudio del comportamiento del modelo de daño no local para el ensayo de extensión uniaxial. - aplicación de los modelos de daño local y no local a ensayos tridimensionales. Los elementos más destacables del trabajo son: - Construir un modelo de fisura difusa a partir del modelo de daño local “solo tracción” existente en Code-Aster. Para ello se ha derivado la pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial en función de los parámetros : (1) densidad de área de energía de fractura y (2) tamaño característico de la malla. - Estudio del comportamiento del modelo de daño no local en el ensayo de extensión uniaxial. En particular estudiar la influencia que los parámetros l (longitud característica de la formulación no local) y m (pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial) en la disipación del modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

GaN y AlN son materiales semiconductores piezoeléctricos del grupo III-V. La heterounión AlGaN/GaN presenta una elevada carga de polarización tanto piezoeléctrica como espontánea en la intercara, lo que genera en su cercanía un 2DEG de grandes concentración y movilidad. Este 2DEG produce una muy alta potencia de salida, que a su vez genera una elevada temperatura de red. Las tensiones de puerta y drenador provocan un stress piezoeléctrico inverso, que puede afectar a la carga de polarización piezoeléctrica y así influir la densidad 2DEG y las características de salida. Por tanto, la física del dispositivo es relevante para todos sus aspectos eléctricos, térmicos y mecánicos. En esta tesis se utiliza el software comercial COMSOL, basado en el método de elementos finitos (FEM), para simular el comportamiento integral electro-térmico, electro-mecánico y electro-térmico-mecánico de los HEMTs de GaN. Las partes de acoplamiento incluyen el modelo de deriva y difusión para el transporte electrónico, la conducción térmica y el efecto piezoeléctrico. Mediante simulaciones y algunas caracterizaciones experimentales de los dispositivos, hemos analizado los efectos térmicos, de deformación y de trampas. Se ha estudiado el impacto de la geometría del dispositivo en su auto-calentamiento mediante simulaciones electro-térmicas y algunas caracterizaciones eléctricas. Entre los resultados más sobresalientes, encontramos que para la misma potencia de salida la distancia entre los contactos de puerta y drenador influye en generación de calor en el canal, y así en su temperatura. El diamante posee une elevada conductividad térmica. Integrando el diamante en el dispositivo se puede dispersar el calor producido y así reducir el auto-calentamiento, al respecto de lo cual se han realizado diversas simulaciones electro-térmicas. Si la integración del diamante es en la parte superior del transistor, los factores determinantes para la capacidad disipadora son el espesor de la capa de diamante, su conductividad térmica y su distancia a la fuente de calor. Este procedimiento de disipación superior también puede reducir el impacto de la barrera térmica de intercara entre la capa adaptadora (buffer) y el substrato. La muy reducida conductividad eléctrica del diamante permite que pueda contactar directamente el metal de puerta (muy cercano a la fuente de calor), lo que resulta muy conveniente para reducir el auto-calentamiento del dispositivo con polarización pulsada. Por otra parte se simuló el dispositivo con diamante depositado en surcos atacados sobre el sustrato como caminos de disipación de calor (disipador posterior). Aquí aparece una competencia de factores que influyen en la capacidad de disipación, a saber, el surco atacado contribuye a aumentar la temperatura del dispositivo debido al pequeño tamaño del disipador, mientras que el diamante disminuiría esa temperatura gracias a su elevada conductividad térmica. Por tanto, se precisan capas de diamante relativamente gruesas para reducer ele efecto de auto-calentamiento. Se comparó la simulación de la deformación local en el borde de la puerta del lado cercano al drenador con estructuras de puerta estándar y con field plate, que podrían ser muy relevantes respecto a fallos mecánicos del dispositivo. Otras simulaciones se enfocaron al efecto de la deformación intrínseca de la capa de diamante en el comportamiento eléctrico del dispositivo. Se han comparado los resultados de las simulaciones de la deformación y las características eléctricas de salida con datos experimentales obtenidos por espectroscopía micro-Raman y medidas eléctricas, respectivamente. Los resultados muestran el stress intrínseco en la capa producido por la distribución no uniforme del 2DEG en el canal y la región de acceso. Además de aumentar la potencia de salida del dispositivo, la deformación intrínseca en la capa de diamante podría mejorar la fiabilidad del dispositivo modulando la deformación local en el borde de la puerta del lado del drenador. Finalmente, también se han simulado en este trabajo los efectos de trampas localizados en la superficie, el buffer y la barrera. Las medidas pulsadas muestran que tanto las puertas largas como las grandes separaciones entre los contactos de puerta y drenador aumentan el cociente entre la corriente pulsada frente a la corriente continua (lag ratio), es decir, disminuir el colapse de corriente (current collapse). Este efecto ha sido explicado mediante las simulaciones de los efectos de trampa de superficie. Por su parte, las referidas a trampas en el buffer se enfocaron en los efectos de atrapamiento dinámico, y su impacto en el auto-calentamiento del dispositivo. Se presenta también un modelo que describe el atrapamiento y liberación de trampas en la barrera: mientras que el atrapamiento se debe a un túnel directo del electrón desde el metal de puerta, el desatrapamiento consiste en la emisión del electrón en la banda de conducción mediante túnel asistido por fonones. El modelo también simula la corriente de puerta, debida a la emisión electrónica dependiente de la temperatura y el campo eléctrico. Además, también se ilustra la corriente de drenador dependiente de la temperatura y el campo eléctrico. ABSTRACT GaN and AlN are group III-V piezoelectric semiconductor materials. The AlGaN/GaN heterojunction presents large piezoelectric and spontaneous polarization charge at the interface, leading to high 2DEG density close to the interface. A high power output would be obtained due to the high 2DEG density and mobility, which leads to elevated lattice temperature. The gate and drain biases induce converse piezoelectric stress that can influence the piezoelectric polarization charge and further influence the 2DEG density and output characteristics. Therefore, the device physics is relevant to all the electrical, thermal, and mechanical aspects. In this dissertation, by using the commercial finite-element-method (FEM) software COMSOL, we achieved the GaN HEMTs simulation with electro-thermal, electro-mechanical, and electro-thermo-mechanical full coupling. The coupling parts include the drift-diffusion model for the electron transport, the thermal conduction, and the piezoelectric effect. By simulations and some experimental characterizations, we have studied the device thermal, stress, and traps effects described in the following. The device geometry impact on the self-heating was studied by electro-thermal simulations and electrical characterizations. Among the obtained interesting results, we found that, for same power output, the distance between the gate and drain contact can influence distribution of the heat generation in the channel and thus influence the channel temperature. Diamond possesses high thermal conductivity. Integrated diamond with the device can spread the generated heat and thus potentially reduce the device self-heating effect. Electro-thermal simulations on this topic were performed. For the diamond integration on top of the device (top-side heat spreading), the determinant factors for the heat spreading ability are the diamond thickness, its thermal conductivity, and its distance to the heat source. The top-side heat spreading can also reduce the impact of thermal boundary resistance between the buffer and the substrate on the device thermal behavior. The very low electrical conductivity of diamond allows that it can directly contact the gate metal (which is very close to the heat source), being quite convenient to reduce the self-heating for the device under pulsed bias. Also, the diamond coated in vias etched in the substrate as heat spreading path (back-side heat spreading) was simulated. A competing mechanism influences the heat spreading ability, i.e., the etched vias would increase the device temperature due to the reduced heat sink while the coated diamond would decrease the device temperature due to its higher thermal conductivity. Therefore, relative thick coated diamond is needed in order to reduce the self-heating effect. The simulated local stress at the gate edge of the drain side for the device with standard and field plate gate structure were compared, which would be relevant to the device mechanical failure. Other stress simulations focused on the intrinsic stress in the diamond capping layer impact on the device electrical behaviors. The simulated stress and electrical output characteristics were compared to experimental data obtained by micro-Raman spectroscopy and electrical characterization, respectively. Results showed that the intrinsic stress in the capping layer caused the non-uniform distribution of 2DEG in the channel and the access region. Besides the enhancement of the device power output, intrinsic stress in the capping layer can potentially improve the device reliability by modulating the local stress at the gate edge of the drain side. Finally, the surface, buffer, and barrier traps effects were simulated in this work. Pulsed measurements showed that long gates and distances between gate and drain contact can increase the gate lag ratio (decrease the current collapse). This was explained by simulations on the surface traps effect. The simulations on buffer traps effects focused on illustrating the dynamic trapping/detrapping in the buffer and the self-heating impact on the device transient drain current. A model was presented to describe the trapping and detrapping in the barrier. The trapping was the electron direct tunneling from the gate metal while the detrapping was the electron emission into the conduction band described by phonon-assisted tunneling. The reverse gate current was simulated based on this model, whose mechanism can be attributed to the temperature and electric field dependent electron emission in the barrier. Furthermore, the mechanism of the device bias via the self-heating and electric field impact on the electron emission and the transient drain current were also illustrated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión de hábitat orientada a la conservación de polinizadores en los agro-ecosistemas requiere una selección de especies vegetales atendiendo fundamentalmente a dos criterios: i) el potencial atractivo de sus flores a los polinizadores; y ii) la simplicidad en su manejo agronómico. Además de estas premisas, es necesario considerar la capacidad invasora de estas especies vegetales, debido a que algunas de las más atractivas pueden resultar invasoras en determinados agro-ecosistemas. Por lo tanto, es preciso determinar qué especies vegetales son las más indicadas para ser implementadas en cada agro-ecosistema. En la presente tesis doctoral se plantea la búsqueda de las especies vegetales adecuadas para atraer polinizadores en los agro-ecosistemas del centro de España. En una primera aproximación, se ha evaluado la atracción y expansión espacial (potencial invasivo) de seis plantas perennes de la familia Lamiaceae (aromáticas), elegidas por ser nativas de la región mediterránea. La elección de las especies vegetales se ha llevado a cabo con el fin de crear márgenes funcionales basados en la mezcla de especies vegetales con distintos periodos de floración, de modo que prolonguen la disponibilidad de recursos florales en el tiempo. Tras un primer año dedicado al establecimiento de las especies aromáticas, en los dos años siguientes se ha estudiado la atracción individual y combinada de las especies vegetales sobre los polinizadores, y como ésta se ve afectada por la densidad y la morfología floral, utilizando para ello un diseño experimental en bloques al azar. Los resultados de este estudio han puesto de manifiesto que la morfología floral no tuvo influencia sobre la atracción de las especies vegetales, pero si la densidad floral, puesto que las especies vegetales con mayor densidad de flores (Nepeta tuberosa e Hyssopus officinalis) han mostrado mayor atracción a polinizadores. Cabe destacar que de las seis especies consideradas, dos especies de verano (Melissa officinalis y Thymbra capitata) no han contribuido de forma efectiva a la atracción de la mezcla hacia los polinizadores, mostrando una reducción significativa de este parámetro respecto a las otras especies aromáticas a lo largo del verano. Se ha observado que ninguna de las especies aromáticas evaluadas ha mostrado tendencia invasora a lo largo del estudio. En base a estos resultados, se puede concluir que entre las especies aromáticas estudiadas, N. tuberosa, H. officinalis y Salvia verbenaca son las que ofrecen mayor potencial para ser utilizadas en la conservación de polinizadores. De forma similar al caso de las plantas aromáticas, se ha llevado a cabo una segunda experimentación que incluía doce plantas anuales con floración de primavera, en la que se evaluó la atracción a polinizadores y su comportamiento agronómico. Este estudio con especies herbáceas se ha prolongado durante dos años, utilizando un diseño experimental de bloques aleatorios. Las variables analizadas fueron: el atractivo de las distintas especies vegetales a los polinizadores, su eficiencia de atracción (calculada como una combinación de la duración de la floración y las visitas de insectos), su respuesta a dos tipos de manejo agronómico (cultivo en mezcla frente a monocultivo; laboreo frente a no-laboreo) y su potencial invasivo. Los resultados de esta segunda experimentación han mostrado que las flores de Borago officinalis, Echium plantagineum, Phacelia tanacetifolia y Diplotaxis tenuifolia son atractivas a las abejas, mientras que las flores de Calendula arvensis, Coriandrum sativum, D. tenuifolia y Lobularia maritima son atractivas a los sírfidos. Con independencia del tipo de polinizadores atraídos por cada especie vegetal, se ha observado una mayor eficiencia de atracción en parcelas con monocultivo de D. tenuifolia respecto a las parcelas donde se cultivó una mezcla de especies herbáceas, si bien en estas últimas se observó mayor eficiencia de atracción que en la mayoría de parcelas mono-específicas. Respecto al potencial invasivo de las especies herbáceas, a pesar de que algunas de las más atractivas a polinizadores (P. tanacetifolia and C. arvensis) mostraron tendencia a un comportamiento invasor, su capacidad de auto-reproducción se vio reducida con el laboreo. En resumen, D. tenuifolia es la única especie que presentó una alta eficiencia de atracción a distintos tipos de polinizadores, conjuntamente con una alta capacidad de auto-reproducción pero sin mostrar carácter invasor. Comparando el atractivo de las especies vegetales utilizadas en este estudio sobre los polinizadores, D. tenuifolia es la especie más recomendable para su cultivo orientado a la atracción de polinizadores en agro-ecosistemas en el centro de España. Esta especie herbácea, conocida como rúcula, tiene la ventaja añadida de ser una especie comercializada para el consumo humano. Además de su atractivo a polinizadores, deben considerarse otros aspectos relacionados con la fisiología y el comportamiento de esta especie vegetal en los agro-ecosistemas antes de recomendar su cultivo. Dado que el cultivo en un campo agrícola de una nueva especie vegetal implica unos costes de producción, por ejemplo debidos a la utilización de agua de riego, es necesario evaluar el incremento en dichos costes en función de demanda hídrica específica de esa especie vegetal. Esta variable es especialmente importante en zonas dónde se presentan sequías recurrentes como es el caso del centro y sur-este de la península Ibérica. Este razonamiento ha motivado un estudio sobre los efectos del estrés hídrico por sequía y el estrés por déficit moderado y severo de riego sobre el crecimiento y floración de la especie D. tenuifolia, así como sobre la atracción a polinizadores. Los resultados muestran que tanto el crecimiento y floración de D. tenuifolia como su atracción a polinizadores no se ven afectados si la falta de riego se produce durante un máximo de 4 días. Sin embargo, si la falta de riego se extiende a lo largo de 8 días o más, se observa una reducción significativa en el crecimiento vegetativo, el número de flores abiertas, el área total y el diámetro de dichas flores, así como en el diámetro y longitud del tubo de la corola. Por otro lado, el estudio pone de manifiesto que un déficit hídrico regulado permite una gestión eficiente del agua, la cual, dependiendo del objetivo final del cultivo de D. tenuifolia (para consumo o solo para atracción de polinizadores), puede reducir su consumo entre un 40 y un 70% sin afectar al crecimiento vegetativo y desarrollo floral, y sin reducir significativamente el atractivo a los polinizadores. Finalmente, esta tesis aborda un estudio para determinar cómo afecta el manejo de hábitat a la producción de los cultivos. En concreto, se ha planteado una experimentación que incluye márgenes mono-específicos y márgenes con una mezcla de especies atractivas a polinizadores, con el fin de determinar su efecto sobre la producción del cultivo de cilantro (C. sativum). La elección del cultivo de cilantro se debe a que requiere la polinización de insectos para su reproducción (aunque, en menor medida, puede polinizarse también por el viento), además de la facilidad para estimar su producción en condiciones semi-controladas de campo. El diseño experimental consistía en la siembra de márgenes mono-específicos de D. tenuifolia y márgenes con mezcla de seis especies anuales situados junto al cultivo de cilantro. Estos cultivos con márgenes florales fueron comparados con controles sin margen floral. Además, un segundo grupo de plantas de cilantro situadas junto a todos los tratamientos, cuyas flores fueron cubiertas para evitar su polinización, sirvió como control para evaluar la influencia de los polinizadores en la producción del cultivo. Los resultados muestran que la presencia de cualquiera de los dos tipos de margen floral mejora el peso y el porcentaje de germinación de las semillas de cilantro frente al control sin margen. Si se comparan los dos tipos de margen, se ha observado un mayor número de semillas de cilantro junto al margen con mezcla de especies florales respecto al margen mono-específico, probablemente debido al mayor número visitas de polinizadores. Puesto que el experimento se realizó en condiciones de campo semi-controladas, esto sugiere que las visitas de polinizadores fueron el factor determinante en los resultados. Por otro lado, los resultados apuntan a que la presencia de un margen floral (ya sea mono-especifico o de mezcla) en cultivos de pequeña escala puede aumentar la producción de cilantro en más de un 200%, al tiempo que contribuyen a la conservación de los polinizadores. ABSTRACT Habitat management, aimed to conserve pollinators in agro-ecosystems, requires selection of the most suitable plant species in terms of their attractiveness to pollinators and simplicity of agronomic management. However, since all flowers are not equally attractive to pollinators and many plant species can be weedy or invasive in the particular habitat, it is important to test which plant species are the most appropriate to be implemented in specific agro-ecosystems. For that reason, this PhD dissertation has been focused on determination of the most appropriate aromatic and herbaceous plants for conservation of pollinators in agro-ecosystems of Central Spain. Therefore, in a first approximation, spatial expansion (i.e. potential weediness) and attractiveness to pollinators of six aromatic perennial plants from the Lamiaceae family, native and frequent in the Mediterranean region, were evaluated. Preliminary plant selection was based on designing a functional mixed margins consisting of plants attractive to pollinators and with different blooming periods, in order to extend the availability of floral resources in the field. After a year of vegetative growth, the next two years the plant species were studied in a randomized block design experiment in order to estimate their attractiveness to pollinators in Central Spain and to investigate whether floral morphology and density affect attractiveness to pollinators. The final aim of the study was to evaluate how their phenology and attractiveness to pollinators can affect the functionality of a flowering mixture of these plants. In addition, the spatial expansion, i.e. potential weediness, of the selected plant species was estimated under field conditions, as the final purpose of the studied plants is to be implemented within agro-ecosystems. The results of the experiment showed that floral morphology did not affect the attractiveness of plants to pollinators, but floral density did, as plant species with higher floral density (i.e. Nepeta tuberosa and Hyssopus officinalis) showed significantly higher attractiveness to pollinators. In addition, of six plant species, two summer species (Melissa officinalis and Thymbra capitata) did not efficiently contribute to the attractiveness of the mixture to pollinators, which reduced its attractiveness during the summer period. Finally, as none of the plants showed weedy behaviour under field conditions, the attractive plant species, i.e. N. tuberosa, H. officinalis and the early spring flowering Salvia verbenaca, showed good potential to conserve the pollinators. Similarly, in a second approximation, the attractiveness to pollinators and agronomic behaviour of twelve herbaceous plants blooming in spring were studied. This experiment was conducted over two years in a randomized block design in order to evaluate attractiveness of preselected plant species to pollinators, as well as their attractiveness efficiency (a combination of duration of flowering and insect visitation), their response to two different agronomic management practices (growing in mixed vs. mono-specific plots; tillage vs. no-tillage), and their potential weediness. The results of this experiment showed that the flowers of Borago officinalis, Echium plantagineum, Phacelia tanacetifolia and Diplotaxis tenuifolia were attractive to bees, while Calendula arvensis, Coriandrum sativum, D. tenuifolia and Lobularia maritima were attractive to hoverflies. In addition, floral mixture resulted in lower attractiveness efficiency to pollinators than mono-specific D. tenuifolia, but higher than most of the mono-specific stands. On the other hand, although some of the most attractive plant species (e.g. P. tanacetifolia and C. arvensis) showed potential weediness, their self-seeding was reduced by tillage. After comparing attractiveness efficiency of various herbaceous species to pollinators and their potential weediness, the results indicated that D. tenuifolia showed the highest attractiveness efficiency to pollinators and efficient self-reproduction, making it highly recommended to attract bees and hoverflies in agro-ecosystems of Central Spain. In addition, this plant, commonly known as wild rocket, has a supplementary economic value as a commercialized crop. The implementation of a new floral margin in agro-ecosystems means increased production costs, especially in regions with frequent and long droughts (as it is Central and South-East area of Iberian Peninsula), where the principal agricultural cost is irrigation. Therefore, before recommending D. tenuifolia for sustainable habitat management within agro-ecosystems, it is necessary to study the effect of drought stress and moderate and severe deficit irrigation on its growth, flower development and attractiveness to pollinators. The results of this experiment showed that in greenhouse conditions, potted D. tenuifolia could be without irrigation for 4 days without affecting its growth, flowering and attractiveness to pollinators. However, lack of irrigation for 8 days or longer significantly reduced the vegetative growth, number of open flowers, total floral area, flower diameter, corolla tube diameter and corolla tube length of D. tenuifolia. This study showed that regulated deficit irrigation can improve water use efficiency, and depending on the purpose of growing D. tenuifolia, as a crop or as a beneficial plant to attract pollinators, it can reduce water consumption by 40% to 70% without affecting its vegetative and floral development and without reducing its attractiveness to pollinators. Finally, the following experiment was developed in order to understand how habitat management can influence on the agricultural production. For this purpose, it was evaluated if the vicinity of mixed and mono-specific field margins, preselected to conserve pollinators within agro-ecosystems, can improve seed production in coriander (C. sativum). The selection of this plant species for the experiment was based on its necessity for insect pollination for production of seeds (even though some pollen can be transmitted from one flower to another by wind) and the fact that under semi-controlled field conditions established in the field it is possible to estimate its total seed production. Since D. tenuifolia is attractive for both bees and hoverflies in Central Spain, the main objective of this experiment was to estimate the impact of two different types of field margins, i.e. mono-specific margin with D. tenuifolia and mixed margin with six herbaceous species, on the seed production of potted coriander. For that reason, it was tested: i) if open pollination (control without proximate field margin and treatments with nearby mono-specific and mixed margin) increases the seed production of coriander when compared with no-pollination (covered inflorescences of coriander) under field conditions; ii) if frequency of pollinator visitation to the flowers of coriander was higher in the presence of field margins than in the control without field margin; and iii) if seed production was higher in the presence of field margins than in control plants of coriander without field margin. The results showed that the proximity of both types of floral margins (mixed and mono-specific) improved the seed quality of coriander plants, as seed weight and germination rate were higher than in control plants without field margin. Furthermore, the number of seeds produced was significantly higher in coriander plants grown near mixed margins than near mono-specific margin, probably due to an increase in pollinator visits. Since the experiment was conducted under semi-controlled field conditions, it can be concluded that pollinator visits was the main factor that biased the results, and that presence of both mixed or mono-specific (D. tenuifolia) margins can improve the production of coriander for more than 200% in small-scale gardens and, in addition, conserve the local pollinators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis doctoral titulada “El Poblado Dirigido de Caño Roto. Dialéctica entre morfología urbana y tipología edificatoria” analiza el poblado de Caño Roto, un vecindario de vivienda social construido en Madrid entre 1957 y 1963, a partir de la relación entre la edificación y la forma urbana resultante. También, la investigación desarrolla un análisis historiográfico de la obra así como de las condiciones políticas, sociales, económicas y normativas existentes en el momento de su realización, para concluir con un estudio comparativo entre éste y otros proyectos análogos al poblado en aspectos como el marco temporal y geopolítico, los planteamientos urbanísticos y algunas soluciones tipológicas y constructivas. El trabajo pretende, por un lado, profundizar en el conocimiento que se tiene actualmente de esta obra, considerada por muchos como una de las más relevantes de la arquitectura española contemporánea, y, por otro, extraer a partir de su estudio, pautas, criterios y estrategias de diseño urbano que puedan ser extrapolables al proyecto contemporáneo; a fin de superar los actuales, pero obsoletos, modelos de desarrollo. No obstante, sabemos que cualquier respuesta que plantee una vuelta al pasado está condenada al fracaso. Las circunstancias cambian y, en consecuencia, las soluciones no pueden ser las mismas. Pero si las respuestas ya no nos sirven, las preguntas siguen siendo válidas. Quién es el protagonista del diseño urbano en Caño Roto. Cómo conviven el tráfico peatonal y el rodado. Cuál es la densidad del barrio. Cómo se articulan los usos residencial, comercial y dotacional. De qué manera se organiza el tejido urbano. Qué relación existe entre los tipos edificatorios y la morfología urbana resultante; y entre los espacios de uso privado o restringido y los de uso público. Partimos de la hipótesis de que los análisis, reflexiones y resultados derivados de interrogar al poblado de Caño Roto acerca de estas, y otras muchas, cuestiones nos permitirán alcanzar un entendimiento global de la complejidad urbana y nos revelarán, además, propuestas y soluciones que contribuyan a mejorar la calidad de nuestras ciudades; ahora y en adelante. ABSTRACT The thesis entitled “El Poblado Dirigido de Caño Roto. Dialéctica entre morfología urbana y tipología edificatoria” [Poblado Dirigido of Caño Roto. Dialectic between urban morphology and typology] analyzes Caño Roto, a social housing neighborhood built in Madrid between 1957 and 1963, from the relationship between buildings and the resulting urban form. Also, this research develops a historiographical analysis of this project as well as the social, political, financial and legislative conditions present at time of its construction. This thesis concludes with a comparative study with other similar projects in temporal and geopolitical framework, urban approaches and some typological and constructive solutions. The research aims, on the one hand, to expand the current knowledge about Caño Roto, considered by many as one of the most important project at Spanish contemporary architecture; and, on the other hand, deducing from the study guidelines, criteria and strategies of urban design which can be extrapolated to contemporary architecture and urbanism. This way, we will be able to overcome current, but obsolete development models. However, we know that any response that suggests coming back to the past is destined to failure. Circumstances change and, consequently, solutions cannot be the same. But if the answers do not serve, questions are still right. Who is the protagonist of Caño Roto urban design? How do pedestrian and road traffic coexist together? What is the neighborhood’s density? How are residential, commercial and endowment uses articulated? How is urban fabric organized? What is the relationship between building types and the resulting urban morphology; and between private and public spaces? We start from the hypothesis that analysis, reflections and results arising from questioning Caño Roto about these, and many others, issues will enable us to have a comprehensive understanding of urban complexity, and they will also reveal proposals and solutions which help us to improve the quality of our cities; from now on.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una gestión más eficiente y equitativa del agua a escala de cuenca no se puede centrar exclusivamente en el recurso hídrico en sí, sino también en otras políticas y disciplinas científicas. Existe un consenso creciente de que, además de la consideración de las cambiantes condiciones climáticas, es necesaria una integración de ámbitos de investigación tales como la agronomía, planificación del territorio y ciencias políticas y económicas a fin de satisfacer de manera sostenible las demandas de agua por parte de la sociedad y del medio natural. La Política Agrícola Común (PAC) es el principal motor de cambio en las tendencias de paisajes rurales y sistemas agrícolas, pero el deterioro del medio ambiente es ahora una de las principales preocupaciones. Uno de los cambios más relevantes se ha producido con la expansión e intensificación del olivar en España, principalmente con nuevas zonas de regadío o la conversión de olivares de secano a sistemas en regadío. Por otra parte, el cambio de las condiciones climáticas podría ejercer un papel importante en las tendencias negativas de las aportaciones a los ríos, pero no queda claro el papel que podrían estar jugando los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas de caudal observadas. Esta tesis tiene como objetivo mejorar el conocimiento de los efectos de la producción agrícola, política agraria y cambios de uso de suelo y cobertura vegetal sobre las condiciones de calidad del agua, respuesta hidrológica y apropiación del agua por parte de la sociedad. En primer lugar, el estudio determina las tendencias existentes de nitratos y sólidos en suspensión en las aguas superficiales de la cuenca del río Guadalquivir durante el periodo de 1998 a 2009. Desde una perspectiva de política agraria, la investigación trata de evaluar mediante un análisis de datos de panel las principales variables, incluyendo la reforma de la PAC de 2003, que están teniendo una influencia en ambos indicadores de calidad. En segundo lugar, la apropiación del agua y el nivel de contaminación por nitratos debido a la producción del aceite de oliva en España se determinan con una evaluación de la huella hídrica (HH), teniendo en cuenta una variabilidad espacial y temporal a largo de las provincias españolas y entre 1997 y 2008. Por último, la tesis analiza los efectos de los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas observadas en la zona alta del Turia, cabecera de la cuenca del río Júcar, durante el periodo 1973-2008 mediante una modelización ecohidrológica. En la cuenca del Guadalquivir cerca del 20% de las estaciones de monitoreo muestran tendencias significativas, lineales o cuadráticas, para cada indicador de calidad de agua. La mayoría de las tendencias significativas en nitratos están aumentando, y la mayoría de tendencias cuadráticas muestran un patrón en forma de U. Los modelos de regresión de datos de panel muestran que las variables más importantes que empeoran ambos indicadores de calidad del agua son la intensificación de biomasa y las exportaciones de ambos indicadores de calidad procedentes de aguas arriba. En regiones en las que el abandono agrícola y/o desintensificación han tenido lugar han mejorado las condiciones de calidad del agua. Para los nitratos, el desacoplamiento de las subvenciones a la agricultura y la reducción de la cuantía de las subvenciones a tierras de regadío subyacen en la reducción observada de la concentración de nitratos. Las medidas de modernización de regadíos y el establecimiento de zonas vulnerables a nitratos reducen la concentración en subcuencas que muestran una tendencia creciente de nitratos. Sin embargo, el efecto de las exportaciones de nitratos procedente de aguas arriba, la intensificación de la biomasa y los precios de los cultivos presentan un mayor peso, explicando la tendencia creciente observada de nitratos. Para los sólidos en suspensión, no queda de forma evidente si el proceso de desacoplamiento ha influido negativa o positivamente. Sin embargo, los mayores valores de las ayudas agrarias aún ligadas a la producción, en particular en zonas de regadío, conllevan un aumento de las tasas de erosión. Aunque la cuenca del Guadalquivir ha aumentado la producción agrícola y la eficiencia del uso del agua, el problema de las altas tasas de erosión aún no ha sido mitigado adecuadamente. El estudio de la huella hídrica (HH) revela que en 1 L de aceite de oliva español más del 99,5% de la HH está relacionado con la producción de la aceituna, mientras que menos del 0,5% se debe a otros componentes, es decir, a la botella, tapón y etiqueta. Durante el período estudiado, la HH verde en secano y en regadío representa alrededor del 72% y 12%, respectivamente, del total de la HH. Las HHs azul y gris representan 6% y 10%, respectivamente. La producción de aceitunas se concentra en regiones con una HH menor por unidad de producto. La producción de aceite de oliva ha aumentado su productividad del agua durante 1997-2008, incentivado por los crecientes precios del aceite, como también lo ha hecho la cantidad de exportaciones de agua virtual. De hecho, las mayores zonas productoras presentan una eficiencia alta del uso y de productividad del agua, así como un menor potencial de contaminación por nitratos. Pero en estas zonas se ve a la vez reflejado un aumento de presión sobre los recursos hídricos locales. El aumento de extracciones de agua subterránea relacionadas con las exportaciones de aceite de oliva podría añadir una mayor presión a la ya estresada cuenca del Guadalquivir, mostrando la necesidad de equilibrar las fuerzas del mercado con los recursos locales disponibles. Los cambios de uso de suelo y cobertura vegetal juegan un papel importante en el balance del agua de la cuenca alta del Turia, pero no son el principal motor que sustenta la reducción observada de caudal. El aumento de la temperatura es el principal factor que explica las mayores tasas de evapotranspiración y la reducción de caudales. Sin embargo, los cambios de uso de suelo y el cambio climático han tenido un efecto compensatorio en la respuesta hidrológica. Por un lado, el caudal se ha visto afectado negativamente por el aumento de la temperatura, mientras que los cambios de uso de suelo y cobertura vegetal han compensado positivamente con una reducción de las tasas de evapotranspiración, gracias a los procesos de disminución de la densidad de matorral y de degradación forestal. El estudio proporciona una visión que fortalece la interdisciplinariedad entre la planificación hidrológica y territorial, destacando la necesidad de incluir las implicaciones de los cambios de uso de suelo y cobertura vegetal en futuros planes hidrológicos. Estos hallazgos son valiosos para la gestión de la cuenca del río Turia, y el enfoque empleado es útil para la determinación del peso de los cambios de uso de suelo y cobertura vegetal en la respuesta hidrológica en otras regiones. ABSTRACT Achieving a more efficient and equitable water management at catchment scale does not only rely on the water resource itself, but also on other policies and scientific knowledge. There is a growing consensus that, in addition to consideration of changing climate conditions, integration with research areas such as agronomy, land use planning and economics and political science is required to meet sustainably the societal and environmental water demands. The Common Agricultural Policy (CAP) is a main driver for trends in rural landscapes and agricultural systems, but environmental deterioration is now a principal concern. One of the most relevant changes has occurred with the expansion and intensification of olive orchards in Spain, taking place mainly with new irrigated areas or with the conversion from rainfed to irrigated systems. Moreover, changing climate conditions might exert a major role on water yield trends, but it remains unclear the role that ongoing land use and land cover changes (LULCC) might have on observed river flow trends. This thesis aims to improve the understanding of the effects of agricultural production, policies and LULCC on water quality conditions, hydrological response and human water appropriation. Firstly, the study determines the existing trends for nitrates and suspended solids in the Guadalquivir river basin’s surface waters (south Spain) during the period from 1998 to 2009. From a policy perspective, the research tries to assess with panel data analysis the main drivers, including the 2003 CAP reform, which are having an influence on both water quality indicators. Secondly, water appropriation and nitrate pollution level originating from the production of olive oil in Spain is determined with a water footprint (WF) assessment, considering a spatial temporal variability across the Spanish provinces and from 1997 to 2008 years. Finally, the thesis analyzes the effects of the LULCC on the observed negative trends over the period 1973-2008 in the Upper Turia basin, headwaters of the Júcar river demarcation (east Spain), with ecohydrological modeling. In the Guadalquivir river basin about 20% of monitoring stations show significant trends, linear or quadratic, for each water quality indicator. Most significant trends of nitrates are augmenting than decreasing, and most significant quadratic terms of both indicators exhibit U-shaped patterns. The panel data models show that the most important drivers that are worsening nitrates and suspended solids in the basin are biomass intensification and exports of both water quality indicators from upland regions. In regions that agricultural abandonment and/or de-intensification have taken place the water quality conditions have improved. For nitrates, the decoupling of agricultural subsidies and the reduction of the amount of subsidies to irrigated land underlie the observed reduction of nitrates concentration. Measures of irrigation modernization and establishment of vulnerable zones to nitrates ameliorate the concentration of nitrates in subbasins showing an increasing trend. However, the effect of nitrates load from upland areas, intensification of biomass and crop prices present a greater weight leading to the final increasing trend in this subbasins group, where annual crops dominate. For suspended solids, there is no clear evidence that decoupling process have influenced negatively or positively. Nevertheless, greater values of subsidies still linked to production, particularly in irrigated regions, lead to increasing erosion rates. Although agricultural production has augmented in the basin and water efficiency in the agricultural sector has improved, the issue of high erosion rates has not yet been properly faced. The water footprint (WF) assessment reveals that for 1 L Spanish olive oil more than 99.5% of the WF is related to the olive fruit production, whereas less than 0.5% is due to other components i.e. bottle, cap and label. Over the studied period, the green WF in rainfed and irrigated systems represents about 72% and 12%, respectively, of the total WF. Blue and grey WFs represent 6% and 10%, respectively. The olive production is concentrated in regions with the smallest WF per unit of product. The olive oil production has increased its apparent water productivity from 1997 to 2008 incentivized by growing trade prices, but also did the amount of virtual water exports. In fact, the largest producing areas present high water use efficiency per product and apparent water productivity as well as less nitrates pollution potential, but this enhances the pressure on the available water resources. Increasing groundwater abstractions related to olive oil exports may add further pressure to the already stressed Guadalquivir basin. This shows the need to balance the market forces with the available local resources. Concerning the effects of LULCC on the Upper Turia basin’s streamflow, LULCC play a significant role on the water balance, but it is not the main driver underpinning the observed reduction on Turia's streamflow. Increasing mean temperature is the main factor supporting larger evapotranspiration rates and streamflow reduction. In fact, LULCC and climate change have had an offsetting effect on the streamflow generation during the study period. While streamflow has been negatively affected by increasing temperature, ongoing LULCC have positively compensated with reduced evapotranspiration rates, thanks to mainly shrubland clearing and forest degradation processes. The research provides insight for strengthening the interdisciplinarity between hydrological and spatial planning, highlighting the need to include the implications of LULCC in future hydrological plans. These findings are valuable for the management of the Turia river basin, as well as a useful approach for the determination of the weight of LULCC on the hydrological response in other regions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.