31 resultados para Cierre patronal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trayectoria ideológica y constructiva de León Krier (Luxemburgo, 1946) destaca con nitidez sobre el fondo confuso del debate arquitectónico de los últimos 40 años, un período de tiempo que comienza precisamente con el cierre del Movimiento Moderno y que ha visto sucederse los más diversos ?postmodernismos?, neomodernismos, experimentaciones y barroquismos. La fortuna de Krier en el panorama internacional describe una parábola significativa a lo largo de las últimas décadas. Extraordinariamente influyente desde finales de los años 70, hasta el punto de convertirse en el padre y líder reconocido de una generación de arquitectos extremadamente críticos con el legado del Movimiento Moderno, Krier obtuvo desde muy joven una posición envidiable en el mundo de la arquitectura, pero con el cambio de las modas arquitectónicas a lo largo de los años 80 hacia un renovado vanguardismo formal, el arquitecto luxemburgués ha pasado a convertirse en un proscrito arquitectónico cuyo sólo nombre es ya sinónimo de controversia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las mujeres de la Bauhaus: El camino hacia la arquitectura, no es un simple título, es una secuencia en el tiempo. Al igual que la meta final de la Bauhaus era la Arquitectura, la Construcción, la obra de arte total donde participaban todas las disciplinas; la Escuela, sin la participación femenina hubiese nacido castrada, no hubiese sido la Bauhaus. En una entrevista se le preguntó a un alumno la razón de su ingreso, qué era lo más importante que le hizo tomar dicha decisión, a lo que contestó: “la forma de vida comunitaria de la gente de la Bauhaus”. Las mujeres, en un principio, con ser admitidas ya se daban por satisfechas. Eran disciplinadas, muy trabajadoras y se conformaban con las tareas que se les asignaba. Todos los estudiantes conocían las dificultades que acarreaba el ingreso y ser admitido era un hecho trascendente. Käthe Brachmann, agradecía en 1919 poder formar parte del alumnado: “Por lo tanto, nosotras las mujeres, también vinimos a esta escuela, porque cada una de nosotras encontró un trabajo que realizar aquí ¡que no nos atrevíamos a descuidar! ¡Puede que nadie envidiase nuestro trabajo! Gracias a todos aquellos que nos lo concedieron…” Somos nosotras, las siguientes generaciones de arquitectas, historiadoras, ingenieras, publicistas, diseñadoras… las que envidiamos y resaltamos su trabajo. Cuando Isabelle Anskombe contactó a principios de 1981, a través de Gunta Stölzl, con Marianne Brandt, ésta se encontraba en un asilo cercano a su lugar de nacimiento (antigua DDR) y quedó gratamente sorprendida del interés despertado. A lo largo de treinta años, hemos sido y continuamos siendo muchas mujeres, también algunos hombres, las que hemos impulsado y restituido el largo historial de méritos de las mujeres que estudiaron y trabajaron en la Bauhaus. Era una carencia que persistía desde el cierre de la escuela en 1933. Esta necesidad de restauración de la pequeña historia de la Bauhaus debe ser satisfecha por lo que esta tesis debe ser leída y entendida como una relectura desde sus orígenes en la que se incluyen dos aspectos fundamentales; el primero formado por los trabajos escolares de una parte importante del alumnado constituido por mujeres y el segundo en la consecución de una meta: lograr inscribirse en las clases de arquitectura y conseguir titularse como arquitectas. Este trabajo de investigación demuestra que la asociación de mujeres de la Bauhaus y el taller textil no fue exclusiva, existieron mujeres en otros talleres y lo más importante, hubo mujeres diplomadas en arquitectura. No se puede reducir el interés que despierta esta tesis sólo al ámbito femenino, porque no debemos olvidar que una tesis dedicada a un determinado maestro o alumno del mundo de la arquitectura se entiende que debe tener un interés global. De la misma manera, el estudio de una determinada maestra y de determinadas alumnas no se puede restringir a un determinado sector, debe ser de interés para toda la comunidad científica, no solo para las mujeres. Para que ello ocurra los trabajos de las alumnas deben tener una calidad mínima. Estudiando el fin de carrera de la alumna Vera Meyer-Waldeck y comparándolo con el de sus compañeros se puede afirmar que la complejidad arquitectónica de su trabajo no desmerece ante las dos propuestas ofrecidas por varones. La célebre frase de Marienne Brand en la que describe cuántas bolitas de alpaca tuvo que conformar hasta que por fin alguien le asignó una tarea mucho más gratificante, ilustra la paciencia y el tesón demostrado por ellas a lo largo del tiempo hasta ganarse el respeto entre los maestros y sus compañeros. La imposición inicial que supuso organizar a la mayorÍa de mujeres en el taller de tejidos influyó en un sentimiento femenino de autolimitación, algunas no se sentían capacitadas para la abstracción y el dominio espacial. Ello les llevó a reafirmarse como las más aptas en el campo bidimensional y por tanto convirtieron dicha limitación en un refugio. Se han explicado ejemplos de mujeres que no participaron en el taller textil (inicialmente establecido para ellas) y paulatinamente fueron dando pasos hacía un mayor compromiso con las relaciones espaciales y la arquitectura, a veces sin ser conscientes de ello. La propia Marianne Brandt tiene unas axonométricas fechadas en 1923 y su carnet de la Werkbund la acreditaba como arquitecta de interiores. Al mismo tiempo, Alma Buscher se sentía plena con sus célebres juguetes infantiles de madera en Weimar, pero sin embargo, ya en Dessau, redactó unos magníficos apuntes de construcción de edificios fechados en 1925. Incluso una alumna del taller textil, Benita Otte, sorprendió a sus maestros con una logradísima isométrica de la casa experimental Haus am Horn para la exposición del año 1923. Un ejemplo extraordinario fue el de la arquitecta Friedl Dicker. Una vez hubo abandonado sus estudios en Weimar, ejerció la profesión en Viena junto con su compañero de estudios Franz Singer, construyendo un club de tenis como trabajo más sobresaliente. El hecho de no existir ningún taller específico de arquitectura en Weimar, jugó a su favor, porque el nuevo profesor contratado para tal fin en Dessau era Hannes Meyer, un convencido de que la arquitectura y la vida debían ir a la par. El hijo de Paul Klee recordaba aquella época “Meyer (…) tenía ideas muy diferentes y la Bauhaus de Dessau llegó a estar muy regulada y agarrotada. Ahora todo el mundo estaba orientado hacía la arquitectura. Un estricto programa de 10 horas al día mantenía a la gente ocupada desde muy temprana la mañana hasta bien entrada la noche, y por si esto fuera poco, se enfatizaba la gimnasia y los deportes. Era un contraste muy fuerte respecto a las ideas fundacionales de la Bauhaus de Weimar…” La secuencia de los acontecimientos se ha detallado en el capítulo correspondiente, demostrándose que Gropius llamó conscientemente a Hannes Meyer porque era el hombre adecuado para este nuevo enfoque en Dessau. En el artículo del año 1926 que cautivó a Gropius, Die Neue Welt (los nuevos tiempos), Hannes Meyer colocaba en la misma página un trabajo de El Lissitzky con otro de Sophie Arp-Täuber. Su folleto de publicidad para ingresar en la escuela utilizaba como reclamo la pregunta, ¿buscas la verdadera igualdad como mujer estudiante? Convencido de que el “talento” no era tan importante como una buena predisposición, permitió eliminar el aura creadora que se suponía fundamentalmente masculina. Apasionado hombre político, cautivó a las jóvenes con su espíritu de justicia social, aunque su relación afectiva con Lotte Stam-Beese y con Hans Wittwer dejó al descubierto su temperamento y la dificultad de trabajar con él. El libro de Moholy Nagy titulado Von Material zu Architecktur (De lo material a la arquitectura) aparecido en 1929, impulsó a muchas mujeres a seguir avanzando y les sirvió como acicate, pues algunas se habían adaptado a un estado inferior al de sus plenas capacidades. Una voz autorizada y respetada les comunicaba que todo “ser humano debe tener la oportunidad de experimentar el espacio en la arquitectura”. Desgraciadamente, las teorías (Schopenhauer y posteriormente Freud … Gregorio Marañón) que primaban el sexo de la mujer por encima de su capacidad como persona , habían permitido crear en la opinión pública una cuantificación del grado de masculinidad o feminidad dependiendo de las actividades que se realizasen. Las relaciones espaciales, las ciencias puras, el proceso creador del artista, se habían considerado eminentemente masculinos en contraposición a la cerámica, las artesanías textiles y cualquier trabajo manual repetitivo que debían ser asignados a las mujeres. Betty Friedman denunciaba en 1962 lo que los educadores sexistas habían transmitido a lo largo del tiempo a sus alumnas : “A las mujeres les gusta la belleza tanto como a los hombres, pero quieren una belleza que esté relacionada con el proceso de la vida (…) La mano es tan admirable y digna de respeto como el cerebro.” En la Bauhaus, según avanzaba el tiempo, la integración ganaba terreno a los prejuicios por lo que la mano y el cerebro estaban conectados. Artista y artesano debían ser todo uno y los planes de estudio de la escuela, fieles a su origen de que el fin último era la arquitectura, ya permitían acceder a la sección de construcción (baulehre) a las personas que una vez terminadas las pruebas en el taller textil, quisieran seguir estudiando dentro de la Bauhaus. Las mujeres ya elegían libremente y se inscribían en los demás talleres según sus preferencias. La estudiante de carpintería y futura arquitecta Vera Meyer-Waldeck era entrevistada en la revista de la escuela y contestaba desinhibidamente que “para mí, es exactamente igual de interesante la literatura, el baile o la música, como las formas, el color, la matemáticas o cualquier problema de estática.” Numerosas alumnas estudiaron en la Bauhaus pero no consiguieron el diploma por no terminar todos los semestres requeridos. Fue el caso de Lotte Stam Beese que empezó en el taller textil con la maestra Gunta Stölzl, continuó en el departamento de construcción y, aunque no llega a diplomarse, si ejerció de arquitecta. Después de trabajar en diversos países, se titula en 1940 en la escuela VHBO de Ámsterdam. La entrada de Mies en la escuela cambia el planteamiento social y enfatiza aún más el estudio de la arquitectura. Unifica en su plan de estudios dos disciplinas que Hannes Meyer las tenía separadas: “construcción y acabados” (bau-ausbau) de manera que la pintura mural, la carpintería y todo lo referente al interior-exterior de un edificio se estudia en el mismo taller. Esta unificación presentaba una gran ventaja para las mujeres ya que se podían apuntar sin sentirse comprometidas ni apabulladas por las connotaciones que una carrera de ciencias tenía ya que en realidad, la palabra arquitectura con grandes letras no aparecía. Por supuesto, tal y como se ha detallado en el plan de estudios, existían todo tipo de asignaturas técnicas, pero el hecho de que la arquitectura de interiores, muy asumida en la opinión pública como actividad perfectamente factible para una mujer, se uniese a la actividad constructora, eminentemente masculina hasta entonces, ayudó a desembocar el final de los estudios de varias mujeres en el fin último de la Bauhaus: la arquitectura. Como ejemplo, Vera Meyer-Waldeck, había trabajado activamente en el edificio de Bernau en la creación de las mesas de estudio de los dormitorios dentro de la sección de carpintería (tischlerei), y gracias a la unificación de talleres, puede seguir ampliando conocimientos de construcción de forma gradual. Las alumnas Vera Meyer-Waldeck, María Müller, Hilde Reiss y Annemarie Wilke lograron de esta manera culminar sus estudios con un diploma que las permitía ejercer como arquitectas. Se ha dispuesto de los proyectos y trabajos profesionales en el campo de la arquitectura y el diseño de Vera y Annemarie. Desgraciadamente, de María y Hilde no se ha encontrado material de estudio. También se amplian datos sobre Annemarie Wimmer (Lange de casada), ella no finalizó sus estudios de Bau, pero se diplomó en ausbau (Ausbauabteilung), equivalente a arquitectura de interiores y escribió una guía de arquitectura de Berlín. Es conocido que la Bauhaus no era la única escuela donde las mujeres podían estudiar teoría de la construcción. Existían en la República de Weimar varias escuelas técnicas donde las mujeres estudiaban arquitectura , pero uno de los rasgos diferenciadores de esta escuela era el fuerte sentimiento de comunidad y la relación alumno-profesor. Las clases distendidas las recordaba el alumno Pius Pahl venido de un estricto instituto técnico: “(…) Durante el cuarto semestre intenté estudiar planeamiento urbano con Hilberseimer. Entré en la habitación donde se impartían las clases y me senté un poco apartado respecto a los demás. Ellos iban llegando uno a uno y encontraban sitios en las mesas, bancos, taburetes y alfeizares de las ventanas. Debatían entre ellos. Estaba esperando a Hilbs (Hilberserimer), pero en vano. Después de algún tiempo uno de los estudiantes veteranos apoyado en un radiador se presento como Hilbs. ¡Que sorpresa para un estudiante formado en la Höheres Staatliches Technikum!” Otro rasgo diferenciador frente a las escuelas técnicas era la posibilidad de acceder a la Bauhaus sin un bachillerato previo. Teniendo dotes artísticas y disponibilidad para el trabajo de diseño se podía ingresar en la Bauhaus. Estas condiciones beneficiaban a cierto número de mujeres que no habían tenido posibilidad de una instrucción académica. Como ejemplo, el currículo anterior de la alumna Lotte Burckhardt , matriculada en la sección de carpintería en el año 1928, consistía en haber trabajado en una sastrería, de secretaría y como trabajadora social. La Bauhaus no obstante, presentaba muchos rasgos comunes con otras escuelas surgidas en la República de Weimar. Varios profesores de la Bauhaus fueron contratados por otras escuelas. La escuela Reimann en Berlín (contrató al maestro de fotografía Peterhans una vez clausurada la Bauhaus de Berlín), la de Breslau (contrató a Schlemmer a partir de 1929) y especialmente la de Frankfurt (contrató a Adolf Meyer cuando éste se separa de Gropius) participaban de idearios similares. Esta última escuela estaba directamente relacionada con la oficina municipal de la construcción de Frankfurt, liderada por el arquitecto Ernst May. Bajo sus ordenes trabajó la arquitecta Margarete Schütte-Lihotzky. Ella, junto con un grupo de trabajo, realizaron para la exposición de la Werkbund de 1927- organizada por Mies y en parte por Lilly Reich- unas viviendas prefabricadas. Al igual que en la feria de Frankfurt, aquí también se ocupó del amueblamiento de las cocinas. Su posterior estancia en la Unión Soviética y sus proyectos son comparables con los realizados en la misma época por Lotte Stam-Beese. Estos proyectos se analizarán estableciéndose similitudes. Si bien hay características similares entre todas estas escuelas, un signo distintivo de la Bauhaus era la ausencia de un departamento o sección de modas que en cambio sí existían en las escuelas de Reimann y Frankfurt . La causa inicial era el riesgo de feminización que temía Gropius y que venía precedido por la escuela de Van de Velde. Posteriormente, en el curriculum de Hannes Meyer, que buscaba las necesidades del pueblo en lugar de ambicionar el lujo, no tenía justificación un taller dedicado a la moda. Cuando llegó Mies, la escuela ya estaba muy profesionalizada y las mujeres que estudiaban allí siempre comprendieron que su objetivo era la arquitectura y el diseño de objetos útiles. Curiosamente, Lilly Reich, la maestra de Ausbau (interiorismo), si venía del mundo de la moda. No hay constancia de que ninguna mujer denunciara un trato discriminatorio, así como tampoco parece que ellas sintieran que abrían nuevas vías a otras mujeres . Tenían un sentimiento de comunidad mixta, no se sentían especiales, creían firmemente en un mundo más justo y pensaban que trabajando en la Bauhaus podrían aportar algo nuevo a la sociedad junto con sus compañeros. Según palabras textuales de Walter Gropius: “La Bauhaus sintió el peso de una doble responsabilidad moral: hacer que sus alumnos tomaran plena conciencia de la época en que vivían, y prepararlos para que plasmaran su inteligencia natural y conocimientos adquiridos en diseños de prototipos que expresaran directamente esta conciencia.” La grave crisis económica y la guerra truncaron muchas esperanzas pero esos fuertes lazos duraron en el tiempo . Son incontables las parejas que se formaron en la Bauhaus, muchas de ellas duraderas en el tiempo. Eran numerosos los matrimonios formados por alumnos arquitectos y alumnas de otros talleres que ayudaban y aconsejaban. Quizás, el caso de Gertrud Arndt, llama la atención porque ella quiso originalmente ser arquitecta. Había estado como aprendiz en un estudio de arquitectura de Erfurt y a instancias de su jefe, empezó a documentar fotográficamente los edificios mientras se formaba. Al ver la primera exposición de la Bauhaus del año 1923 y con una beca de estudios, decidió trasladarse a Weimar para estudiar arquitectura. Cuando llegó allí descubrió que no existía tal departamento (solo alumnos aventajados disfrutaban de algunas clases semiparticulares) y después de aprobar el curso preliminar acabó en el taller de tejidos. Una vez hubo completado todos sus estudios, no volvió a trabajar en el diseño textil. Se casó con el arquitecto Alfred Arndt y cuando éste fue nombrado profesor, ella estuvo apoyando a su marido sin dejar de ocuparse de su otra pasión: la fotografía. Gertrud fue redescubierta como fotógrafa en los años 80 y en enero de 2013, el archivo Bauhaus le ha dedicado una exposición monográfica con sus obras textiles y fotográficas. Como anécdota, cabe reseñar la carta que le escribe Gertrud a su amiga Gunta Stölzl, animándola a emigrar a España ya que nuestro país se veía como una oportunidad para trabajar ante una Alemania deprimida económicamente. Tratamiento singular se merece también Hermine Luise Scheper- Berkenkamp, conocida como Lou. Alumna del taller de pintura mural, se casó con su compañero de estudios Hinnerk Scheper. Él terminó como profesor de la escuela y ella se dedicó a ayudarle al tiempo que ejercía de pintora e ilustradora de libros para niños. La prematura muerte de su marido en 1957 le impulsó a ejercer sus funciones. Se hizo cargo de las labores compositivas del color en la arquitectura de numerosos edificios en Berlín. Fue responsable del diseño de color del último proyecto ejecutado por Otto Bartning (un hogar infantil en Berlín), la Filarmónica de Hans Scharoun, el Museo Egipcio, varios edificios de Walter Gropius en los distritos de Berlín Britz, Buckow y Rudow así como el edificio del aeropuerto de Tegel. Cuando murió el 11-4-1976, Lou estaba trabajando en el esquema de color para la construcción de la biblioteca de Scharoun en Berlín. Es una evidencia que el trabajo de la escuela ha pasado a la posteridad fundamentalmente por la creación de objetos, telas, tipografías, fotografías, collages, pinturas, publicidad y técnicas de color. A excepción de sus tres directores, arquitectos de profesión, ni siquiera el arquitecto Breuer logra superar en reconocimiento al Breuer creador de sillas tubulares. Es por tanto mi intención mostrar el lado menos conocido de la escuela más famosa: el trabajo de las arquitectas que surgieron de la Bauhaus. Lamentablemente, el trabajo realizado por Peter Hahn en 1995 y recogido en el libro Bauten und projekte. Bauhaus in Berlín (Construcciones y proyectos. Bauhaus en Berlín) que editó el Bauhaus-archiv, sólo contiene los trabajos realizados por estudiantes y profesores de la escuela en el área metropolitana de Berlín, no aparece plano alguno ni fotografías de ninguna estudiante. Tan solo se citan las biografías de Lilly Reich y Vera Meyer-Waldeck. Con la colaboración del propio archivo Bauhaus, he podido contemplar los trabajos de las alumnas y compararlos con los de sus compañeros que sí figuran en dicho libro. Se analizarán dichos proyectos Por último, una imagen, que parece retroceder en el tiempo: Mies en América con sus estudiantes, solo hombres. Cuando Gropius emigró a Inglaterra, realizó con Maxwell Fry una escuela mixta que continuaba sus planteamientos ético-sociales traspuestos a la arquitectura. Sin embargo, al aceptar el puesto docente en Harvard (1937-1952), donde la educación estaba segregada por sexos -las mujeres aprendían en el Radcliffe College- no debió poder instruir prácticamente a ninguna mujer . La arquitecta Anne Thyn, colaboradora de Louis Kahn, fue una de las escasas alumnas. Empezó en 1944 y se licenció en 1949. ¿Coincidirían en alguna clase? Parece que la guerra hizo retroceder los espacios ganados por las mujeres, al menos en Estados Unidos. La feminista Bety Fridman denunciaba una vuelta de la mujer al hogar y a “ese malestar que no tiene nombre” denominado por ella la mística de la feminidad. En el año 1953, en América se publicaban manuales dirigidos a las mujeres en los siguientes términos: “En el momento histórico actual, la muchacha más adaptada probablemente sea la que es lo suficientemente inteligente como para tener buenas notas es la escuela pero no tan brillante como para sacar sobresaliente en todo (…); la que es competente, pero no en áreas relativamente nuevas para las mujeres; la que sabe ser independiente y ganarse la vida, pero no tanto como para competir con lo s varones; la que es capaz de hacer bien algún trabajo (en el supuesto de que no se case o si por otras razones no tiene más remedio que trabajar) pero no está tan identificada con una profesión como para necesitar ejercerla para ser feliz.” Afortunadamente, las protagonistas de esta tesis se sentían tan identificadas con su profesión que necesitaban ejercerla para ser personas, porque “ser mujer no es ni más ni menos que ser humana” ABSTRACT The Bauhaus was created in 1919 in a brand new government which looks for a rapprochement between the people and university elites. A new, modern and democratic perspective where the ideals of collectivism and individualism come together to serve the same cause: architecture, total construction. To access the Bauhaus previous studies were not necessary, just an artistic disposition. The Weimar period lasted until 1925, year in which were expelled finding a new headquarters in Dessau. The school appealed especially to young people wanting to learn and in need of change. For women marked a double jump, to acquire a profession and feel equal to their peers. Its founder, Walter Gropius, wanted to combine artistic creation of standardized design prototypes looking for a common goal around the architecture. Under the slogan "art and industry, a new unit," an exhibition from 15 August to 30 September 1923 where the pilot house called "Haus am Horn", executed and organized by all the school's workshops and in which some female students were able to demonstrate his extraordinary talent. When the Bauhaus moved to Dessau, Gropius invited architect Hannes Meyer to join them for the inauguration of the architecture section. No sooner had Meyer joint the Bauhaus when he became the new director. He advertised the school under the slogan “Come to the Bauhaus” with which he wanted to attract more female students. In his advertising papers, Mayer asked “Are you looking for a real equality as a female student?” During his mandate the Bauhaus sought predisposition for artistic talent to face a new and fairer world. “The needs of the people instead of a lust for luxury” were also reflected in the new architecture. The female students Lotte Gerson and Lotte Besse enrolled themselves in 1929 in the construction section. The destitution of Hannes Meyer in summer in 1930 made the designation of Mies van der Rohe, the school’s last director. Lilly Reich substituted master Gunta Stölzl. This well known couple of professionals with professor Hilberseimer formed a global section of construction-interior design (bau-ausbau) where edification and urbanism a quota of exigency not fewer than any other technical school in Germany. The Bauhaus, harassed by the Nazis, was obligated to leave their headquarters in Dessau, to move to Berlin, as a private institute in an abandoned factory. Before leaving Dessau, four women got their architect diplomas. These women were Hilde Reiss, Maria Müller, Annemarie Wilke and Wera Meyer Waldeck The closing of the Berlin headquarters in 1933 by the Nazi government, at the time the Weimar Republic ended with Hitler’s raise to the power. This made the Bauhaus a symbol of the sullied freedom by totalitarianism. The work and biography of the following female architects that represent the three headquarters of the school is analyzed here: -Friedl Dicker in Weimar -Wera Meyer-Waldeck in Dessau - Annemarie Wilke in Berlin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fotosíntesis es el proceso biológico que permite la producción primaria y, por tanto, la vida en nuestro planeta. La tasa fotosintética viene determinada por la ‘maquinaria’ bioquímica y las resistencias difusivas al paso del CO2 desde la atmósfera hasta su fijación en el interior de los cloroplastos. Históricamente la mayor resistencia difusiva se ha atribuido al cierre estomático, sin embargo ahora sabemos, debido a las mejoras en las técnicas experimentales, que existe también una resistencia grande que se opone a la difusión del CO2 desde los espacios intercelulares a los lugares de carboxilación. Esta resistencia, llamada normalmente por su inversa: la conductancia del mesófilo (gm), puede ser igual o incluso superior a la resistencia debida por el cierre estomático. En la presente tesis doctoral he caracterizado la limitación que ejerce la resistencia del mesófilo a la fijación de CO2 en diversas especies forestales y en distintos momentos de su ciclo biológico. En la fase de regenerado, hemos estudiado tres situaciones ambientales relevantes en el mayor éxito de su supervivencia, que son: el déficit hídrico, su interacción con la irradiancia y el paso del crecimiento en la sombra a mayor irradiancia, como puede suceder tras la apertura de un hueco en el dosel forestal. En la fase de arbolado adulto se ha caracterizado el estado hídrico y el intercambio gaseoso en hojas desarrolladas a distinta irradiancia dentro del dosel vegetal durante tres años contrastados en pluviometría. Para cada tipo de estudio se han empleado las técnicas ecofisiológicas más pertinentes para evaluar el estado hídrico y el intercambio gaseoso. Por su complejidad y la falta de un método que permita su cuantificación directa, la gm ha sido evaluada por los métodos más usados, que son: la discriminación isotópica del carbono 13, el método de la J variable, el método de la J constante y el método de la curvatura. Los resultados más significativos permiten concluir que la limitación relativa a la fotosíntesis por la conductancia estomática, del mesófilo y bioquímica es dependiente de la localización de la hoja en el dosel forestal. Por primera vez se ha documentado que bajo estrés hídrico las hojas desarrolladas a la sombra estuvieron más limitadas por una reducción en la gm, mientras que las hojas desarrolladas a pleno sol estuvieron más limitadas por reducción mayor de la conductancia estomática (gsw). Encontramos buena conexión entre el aparato fotosintético foliar y el sistema hídrico debido al alto grado de correlación entre la conductancia hidráulica foliar aparente y la concentración de CO2 en los cloroplastos en distintas especies forestales. Además, hemos mostrado diferentes pautas de regulación del intercambio gaseoso según las particularidades ecológicas de las especies estudiadas. Tanto en brinzales crecidos de forma natural y en el arbolado adulto como en plántulas cultivadas en el invernadero la ontogenia afectó a las limitaciones de la fotosíntesis producidas por estrés hídrico, resultando que las limitaciones estomáticas fueron dominantes en hojas más jóvenes mientras que las no estomáticas en hojas más maduras. La puesta en luz supuso un gran descenso en la gm durante los días siguientes a la transferencia, siendo este efecto mayor según el grado de sombreo previo en el que se han desarrollado las hojas. La aclimatación de las hojas a la alta irradiancia estuvo ligada a las modificaciones anatómicas foliares y al estado de desarrollo de la hoja. El ratio entre la gm/gsw determinó la mayor eficiencia en el uso del agua y un menor estado oxidativo durante la fase de estrés hídrico y su posterior rehidratación, lo cual sugiere el uso de este ratio en los programas de mejora genética frente al estrés hídrico. Debido a que la mayoría de modelos de estimación de la producción primaria bruta (GPP) de un ecosistema no incluye la gm, los mismos están incurriendo en una sobreestimación del GPP particularmente bajo condiciones de estrés hídrico, porque más de la mitad de la reducción en fotosíntesis en hojas desarrolladas a la sombra se debe a la reducción en gm. Finalmente se presenta un análisis de la importancia en las estimas de la gm bajo estrés hídrico de la refijación del CO2 emitido en la mitocondria a consecuencia de la fotorrespiración y la respiración mitocondrial en luz. ABSTRACT Photosynthesis is the biological process that supports primary production and, therefore, life on our planet. Rates of photosynthesis are determined by biochemical “machinery” and the diffusive resistance to the transfer of CO2 from the atmosphere to the place of fixation within the chloroplasts. Historically the largest diffusive resistance was attributed to the stomata, although we now know via improvements in experimental techniques that there is also a large resistance from sub-stomatal cavities to sites of carboxylation. This resistance, commonly quantified as mesophyll conductance (gm), can be as large or even larger than that due to stomatal resistance. In the present PhD I have characterized the limitation exerted by the mesophyll resistance to CO2 fixation in different forest species at different stages of their life cycle. In seedlings, we studied three environmental conditions that affect plant fitness, namely, water deficit, the interaction of water deficit with irradiance, and the transfer of plants grown in the shade to higher irradiance as can occur when a gap opens in the forest canopy. At the stage of mature trees we characterized water status and gas exchange in leaves developed at different irradiance within the canopy over the course of three years that had contrasting rainfall. For each study we used the most relevant ecophysiological techniques to quantify water relations and gas exchange. Due to its complexity and the lack of a method that allows direct quantification, gm was estimated by the most commonly used methods which are: carbon isotope discrimination, the J-variable, constant J and the curvature method The most significant results suggest that the relative limitation of photosynthesis by stomata, mesophyll and biochemistry depending on the position of the leaf within the canopy. For the first time it was documented that under water stress shaded leaves were more limited by a reduction in gm, while the sun-adapted leaves were more limited by stomatal conductance (gsw). The connection between leaf photosynthetic apparatus and the hydraulic system was shown by the good correlations found between the apparent leaf hydraulic conductance and the CO2 concentration in the chloroplasts in shade- and sun-adapted leaves of several tree species. In addition, we have revealed different patterns of gas exchange regulation according to the functional ecology of the species studied. In field grown trees and greenhouse-grown seedlings ontogeny affected limitations of photosynthesis due to water stress with stomatal limitations dominating in young leaves and nonstomatal limitations in older leaves. The transfer to high light resulted in major decrease of gm during the days following the transfer and this effect was greater as higher was the shade which leaves were developed. Acclimation to high light was linked to the leaf anatomical changes and the state of leaf development. The ratio between the gm/gsw determined the greater efficiency in water use and reduced the oxidative stress during the water stress and subsequent rehydration, suggesting the use of this ratio in breeding programs aiming to increase avoidance of water stress. Because most models to estimate gross primary production (GPP) of an ecosystem do not include gm, they are incurring an overestimation of GPP particularly under conditions of water stress because more than half of An decrease in shade-developed leaves may be due to reduction in gm. Finally, we present an analysis of the importance of how estimates of gm under water stress are affected by the refixation of CO2 that is emitted from mitochondria via photorespiration and mitochondrial respiration in light.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La lucha contra el cambio climático es uno de los retos ambientales más importantes de este siglo XXI. Para alcanzar el objetivo de reducir las emisiones de gases de efecto invernadero es necesario desarrollar herramientas aplicables a todas las actividades de la economía con las que medir el impacto generado por la actividad del hombre. La Huella de Carbono (HC) forma parte de un conjunto de indicadores desarrollados para responder a esta necesidad. Nuestra línea de trabajo parte del hecho de que la demanda de una baja HC puede ser un factor clave para estimular cambios en los hábitos de consumos y para mejorar la eficiencia en los procesos de producción. Sin embargo, una de las principales dificultades halladas al respecto es la diferencia de enfoques para el cálculo de la HC de producto y la HC de organización. De igual manera existen importantes dificultades en el establecimiento de los límites del sistema en estudio. Para asegurar el éxito de la implantación de la HC en la sociedad, es necesario el establecimiento de los mismos criterios en los distintos estudios. Por este camino, la comparabilidad esta comprometida y con ello la confianza del consumidor. Los avances en el cálculo de HC se basan en dos propuestas ampliamente conocidas: El Análisis de Ciclo de Vida y la Extensión Ambiental del Análisis Input-Output. Ambas metodologías tienen relevantes aspectos positivos y negativos. Por lo tanto, la hibridación entre ambos enfoques supone una clara oportunidad en la búsqueda de sinergias. En respuesta a esta demanda, diferentes herramientas de enfoque híbrido están siendo desarrolladas. La investigación de esta tesis doctoral parte del avance desarrollado en la concepción del Método Compuesto de las Cuentas Contables (MC3). El MC3 es un método de análisis híbrido por niveles que desarrolla un cálculo exhaustivo de la HC de organización para el posterior cálculo de la HC de producto. Esta investigación tiene como objetivo general evaluar el MC3 como herramienta de cálculo de la HC, válida tanto para organización como para producto. En este sentido, se analizan pormenorizadamente cuatro casos de estudios con características innovadoras. Tres de ellos empleando el MC3 en diferentes unidades de estudio: organización, producto y escenario internacional. La aplicación a organización se realiza sobre un centro universitario, permitiendo el análisis detallado de diferentes aspectos metodológicos. La aplicación a producto compara los resultados del MC3 con la aplicación tradicional de un Análisis de Ciclo de Vida. El escenario internacional se desarrolla en Brasil sobre la producción energética en un parque eólico de grandes dimensiones. Por último, el caso de estudio 4 se basa en la Extensión Ambiental del Análisis Multi-Region Input-Output. Este estudio elabora una nueva aproximación para el análisis del impacto generado por un hipotético cierre del comercio internacional. Estos estudios son discutidos en su conjunto a fin de poner en valor las fortalezas de las innovaciones implementadas con un sentido integrador. También se proponen estrategias futuras que permitan mejorar la propuesta metodológica del MC3 con el punto de mira puesto en la internacionalización y la armonización con los estándares internacionales de la HC. Según la experiencia desarrollada, el MC3 es un método de cálculo de la HC práctico y válido para evaluar la cantidad de emisiones directas e indirectas de gases de efecto invernadero de cualquier tipo de actividad. Una de las principales conclusiones es que el MC3 puede ser considerado una herramienta válida para el ecoetiquetado global de bienes y servicios que permita, tanto a empresas como a consumidores, funcionar como motores de cambios hacia una economía dinamizada por la búsqueda de la racionalización en el uso de los recursos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La infiltración de agua en el suelo y la recarga profunda del agua subterránea contenida en los acuíferos es un proceso lento en relación con otros fenómenos hidrológicos. La redacción de esta tesis ha pretendido contribuir al estudio de la influencia que el almacenamiento de la precipitación sólida en forma de manto de nieve y su eventual fusión puedan tener sobre dicho proceso en áreas de media montaña (1.000 – 2.000 m.) en las que con gran frecuencia se sitúan las cabeceras de los ríos peninsulares. Para ello se ha partido del análisis de las diferentes variables intervinientes durante un determinado periodo temporal y sobre un espacio geográfico concreto, por lo que su metodología es de naturaleza empírica. La extensión del periodo (2002/03 a 2010/11) ha venido condicionada por la disponibilidad de los valores de algunas de sus principales variables, como han sido el equivalente en agua de la nieve acumulada y los caudales procedentes de su fusión. Éstos se han obtenido como resultado de la aplicación del modelo ASTER, desarrollado en el programa de Evaluación de los Recursos Hídricos procedentes de la Innivación (ERHIN), calibrado – entre otros- con datos de precipitaciones, temperatura y caudales provenientes a su vez del Sistema Automático de Información Hidrológica (SAIH). Ambos programas fueron implantados por la Administración en las diferentes Confederaciones Hidrográficas y en determinados Organismos de cuenca actuales, en cuyo desarrollo participó el autor de esta tesis. En cuanto a la zona de estudio se ha procedido a su elección considerando las posibles áreas de media montaña en las que la presencia de la nieve fuera hidrológicamente significativa y estuvieran constituidas litológicamente por afloramientos permeables que no impidieran la infiltración en el terreno y la formación de acuíferos de cierta relevancia. El interés se centró discrecionalmente en la cuenca del Tajo, tanto por el carácter estratégico de la misma -como suministradora en la actualidad de excedentes a otras cuencas deficitarias- como por el valor representativo de sus condiciones climáticas y orográficas en relación con otras cuencas hidrográficas peninsulares. Para ello se partió de las cabeceras de ríos identificadas por el programa ERHIN por su interés nivológico para la implantación del modelo ASTER y de las Masas de Agua Subterráneas MASb (antes Unidades Hidrogeológicas UUHH) definidas en los planes hidrológicos. La intersección en el territorio de ambos criterios condujo, finalmente, a la zona del Alto Tajo, en la que se cumplen ambos requisitos. El tramo quedó concretado en el comprendido entre las cabeceras de los ríos Tajo y Guadiela y la cola de los embalses de Entrepeñas y Buendía respectivamente, puntos de cierre para la calibración llevada a cabo en la modelización ASTER. Gran parte de éste discurre, en su parte alta, sobre rocas carbonatadas (calizas y dolomías del Jurásico y Cretácico), relacionados con las MASb de Tajuña-Montes Universales, Molina de Aragón y Sigüenza-Maranchón. Los valores diarios de las reservas de agua en forma de nieve, evapotranspiración y caudales procedentes de la fusión se han obtenido a partir de los resultados del mencionado modelo, procediéndose al cálculo de la infiltración por balance hídrico durante el periodo de estudio considerado, teniendo en cuenta los valores de precipitación, evapotranspiración y aportaciones de caudales. Esto ha requerido el estudio previo de las condiciones hidrogeológicas de la zona seleccionada con objeto de conocer las posibles interconexiones subterráneas que pudieran alterar los saldos entre las variables intervinientes anteriormente citadas. Para ello se ha llevado a cabo la recopilación y análisis de la información hidrogeológica correspondiente a la documentación de los planes hidrológicos del Tajo (Plan Hidrológico de la cuenca del Tajo RD 1664/1998 y el actual Plan Hidrológico de la parte española de la Demarcación Hidrográfica del Tajo RD 270/2014) y de los estudios previos realizados por el organismo de cuenca y el Instituto Geológico y Minero de España (lGME) fundamentalmente. En relación con la MASb Tajuña-Montes Universales -cuya extensión supera la zona seleccionada- dichos estudios consideran su estructura geológica y distribución litológica, con intercalaciones impermeables que actúan como barreras, dividiendo a éstas en Subunidades e identificando las zonas de drenaje de sus respectivos acuíferos. También se ha considerado la documentación y estudios previos del Plan Hidrológico Nacional sobre las Unidades Hidrogeológicas compartidas entre ámbitos geográficos de diferentes planes hidrológicos. Se concluye que las divisorias hidrográficas de las cabeceras son sensiblemente coincidentes o abarcan las Subunidades Montes Universales meridionales, Priego, Cifuentes, Zaorejas, u Montes Universales septentrionales, que drenan hacia el Tajo/Guadiela (bien directamente, bien a través de afluentes como el Gallo, Ablanquejo, Cabrillas, Cuervo…), MASb Molina de Aragón, que drena al Tajo a través del río Gallo y MASb Sigüenza—Maranchón, que drena su parte correspondiente hacia el Tajo a través del Ablanquejo. Se descartan – salvo la pequeña salvedad del manantial de Cifuentes- las conexiones hidrogeológicas con otras MASb o Subunidades por lo que las cabeceras del Tajo y del Guadiela pueden considerarse como un Sistema independiente donde las precipitaciones no evaporadas escurren superficialmente o se infiltran y descargan hacia los embalses de Entrepeñas y Buendía. La cuantificación diaria y acumulada de los balances hídricos ha permitido calcular la evolución aproximada de las reservas de agua subterránea desde la fecha inicial. Originalmente los balances se realizaron de forma separada en las cabeceras del Tajo y del Guadiela, cuyos valores acumulados manifestaron una tendencia creciente en la primera y decreciente en la segunda. Dicha situación se equilibra cuando el balance se practica conjuntamente en ambas, apreciándose en la variación del volumen de agua subterránea una evolución acorde hidrológicamente con los ciclos de verano/invierno y periodos de sequía, manteniéndose sus valores medios a largo/medio plazo, poniendo en evidencia la existencia de interconexiones subterráneas entre ambas cuencas. El balance conjunto, agregando la cabecera del Tajuña (que también comparte los materiales permeables de la MASb Tajuña-Montes Universales) no reveló la existencia de nuevas interrelaciones hidrogeológicas que influyeran en los balances hídricos realizados Tajo/Guadiela, confirmando las conclusiones de los estudios hidrogeológicos anteriormente analizados. Se ha procedido a confrontar y validar los resultados obtenidos de la evolución de las reservas de agua subterránea mediante los siguientes procedimientos alternativos: - Cálculo de los parámetros de desagüe de la curva de agotamiento correspondiente al volumen de agua subterránea drenante hacia el Tajo/Guadiela. Éste se ha realizado a partir de las aportaciones mensuales entrantes en los embalses de Entrepeñas y Buendía durante los meses de junio, julio, agosto y septiembre, cuyos valores responden al perfil típico de descargas de un acuífero. A partir de éstos se ha determinado el volumen drenante correspondiente al primero de junio de cada año de la serie histórica considerada. - Determinación del caudal base por el método Wallingford y deducción de los volúmenes drenantes. Estimación de las recarga anuales - Cuantificación de la recarga anual por el método Sanz, Menéndez Pidal de Navascués y Távara. Se obtuvieron valores de recarga muy aproximados entre los calculados por los dos últimos procedimientos citados. Respecto a las reservas de agua subterránea almacenadas siguen una evolución semejante en todos los casos, lo que ha permitido considerar válidos los resultados conseguidos mediante balance hídrico. Confirmada su solidez, se han buscado correlaciones simples entre el volumen de las reservas subterráneas (como indicador estimativo del efecto de la infiltración) y los volúmenes procedentes de la fusión. La conclusión es que estos últimos no tienen un efecto determinante a escala anual sobre la infiltración,recarga y variación de los volúmenes de agua subterránea, frente al peso de otras variables (precipitación y evapotranspiración). No obstante se ha encontrado una buena correlación múltiple entre la recarga estimada y la precipitación eficaz (precipitación menos evapotranspiración) y fusión, que ha permitido cuantificar la contribución de esta última. Posteriormente se ha recurrido a la selección de los episodios más intensos de acumulación /fusión en las cabeceras del Tajo y Guadiela. Y se procedió a la comparación entre los resultados obtenidos por aplicación del modelo de simulación en los mismos periodos (normalmente de varios días de duración) con datos reales y con datos ficticios de temperatura que anularan o disminuyeran la presencia de nieve, apreciándose una gran sensibilidad del efecto de la temperatura sobre la evapotranspiración y estableciéndose nuevamente correlaciones lineales entre los volúmenes de fusión y el incremento de reservas subterráneas. Las mismas confirman el efecto “favorecedor” de la acumulación de agua en forma de nieve y su posterior licuación, sobre sobre la infiltración de agua en el suelo y almacenamiento subterráneo. Finalmente se establecieron varios escenarios climáticos (+1ºC; +3ºC; +1ºC y – 10% precipitación; y 3ºC – 10% precipitación) compatibles con las previsiones del IPCC para mediados y finales del presente siglo, determinándose mediante simulación ASTER los correspondientes valores de fusión. La correlación establecida a escala anual ha permitido evaluar el efecto de la disminución del volumen de fusión - en los diferentes escenarios – sobre la recarga, pronosticando un descenso de los caudales de estiaje y la desaparición del “efecto nieve” sobre la infiltración y recarga con un aumento de 3ºC de temperatura. Teniendo en cuenta las condiciones de representatividad de la zona elegida, resulta verosímil la extensión de las anteriores conclusiones a otras cabeceras fluviales enclavadas en áreas de media montaña situadas entre 1000 a 2000m y sus efectos aguas abajo.Water infiltration into the soil and groundwater recharge deep water in aquifers is slow relative to other hydrological phenomena. The wording of this thesis aims to contribute to the study of the influence that the storage of solid precipitation as snow cover and its eventual melting may have on this process in mid-mountain areas (1000 - 2,000 m) where very often the headwaters of the peninsular rivers are located. For this party analysis of the different variables involved has over a given time period and a particular geographical area, so that their methodology is empirical in nature. The extension of the period (2002/03 to 2010/11) has been conditioned by the availability of the values of some of its key variables, as were the water equivalent of the snow and flows from melting. These have been obtained as a result of the application of ASTER model, developed in the program Evaluation of Water Resources from the Innivation (ERHIN), calibrated - among others data of rainfall, temperature and flow from turn System Automatic Hydrological Information (SAIH). Both programs were implemented by the Administration in the different Water Boards and to undertakings for current basin, in which the author participated development of this thesis. As for the study area has proceeded at its option considering the possible areas of midmountain in the presence of snow outside hydrological meaningful and they were lithology consisting of permeable outcrops that did not prevent infiltration into the ground and forming aquifers of some significance. We were interested discretion in the Tagus basin, therefore the strategic nature of it, as currently supplying surplus to other basins deficit- as the representative value of its climate and terrain conditions in relation to other peninsular river basins . To do this we started from the headwaters identified by the ERHIN program for its implementation snow interest to the ASTER model and Ground Water Bodies MASb (before UUHH Hydrogeological Units) defined in hydrological plans. The intersection in the territory of both criteria led eventually to the Alto Tajo, in which both requirements are met. The section was finalized in the period between the headwaters of the Tagus and Guadiela rivers and reservoirs end Entrepeñas and Buendia respectively checking points for calibration performed in ASTER modeling. Much of it runs on carbonate rocks (limestones and dolomites of Jurassic and Cretaceous) related MASb of Tajuña -Montes Universal, Molina de Aragón and Sigüenza-Maranchón. The daily values of water reserves in the form of snow, evapotranspiration and flow from melting were obtained from the results of this model, proceeding to the calculation of infiltration water balance during the study period considered, taking into account values of precipitation, evapotranspiration and input flow. This has required the prior examination of the hydrogeological conditions of your required in order to know the possible underground interconnections that could alter the balance between the intervening variables aforementioned area. For this we have carried out the collection and analysis of hydrogeological information relevant documentation Tagus river management plans (Hydrological Plan Tajo Basin RD 1664/1998 and the current Hydrological Plan of the Spanish part of the River Basin Tagus RD 270/2014) and previous studies by the basin organization and the Geological Survey of Spain (IGME) mainly. Regarding the MASb Tajuña- Montes Universal - whose length exceeds the area selected - these studies consider its geological structure and lithology distribution with waterproof collations that act as barriers, dividing it into subunits and identifying areas draining their respective aquifers. It has also considered the documentation and previous studies of the National Hydrological Plan on shared among different geographical areas management plans Hydrogeological Units. We conclude that river dividing the headers are substantially coincident or covering Subunits southern Universal Montes, Priego Cifuentes, Zaorejas and northern Universal Mounts, which drain into the Tagus / Guadiela (either directly or through tributaries such as Gallo, Ablanquejo , whitecaps , Raven ...), MASb Molina de Aragón which drains through the Tajo del Gallo and MASb Sigüenza- Maranchón river that drains into the Tagus using the Ablanquejo . Discarded - except the small exception of spring Cifuentes -hydrogeological connections with other MASb or Subunits so the headwaters of the Tagus and Guadiela be considered as a separate system, where rainfall not evaporated runs on surface or infiltrates and eventually discharged into reservoirs Entrepeñas and Buendia. The daily and cumulative quantification of water balances allowed us to compute the approximate evolution of groundwater reserves from its initial date. Initially balances were performed separately in the headwaters of the Tagus and Guadiela, whose cumulative values showed an increasing trend in the first and decreasing in the second. This situation is balanced when the balance is practiced together in both , appreciating the change in volume of groundwater hydrological evolution commensurate with the cycles of summer / winter and drought periods , keeping their average long / medium term values and putting in shows the existence of underground interconnections between the two basins. The overall balance, adding header Tajuña (which also shares the permeable materials MASb Tajuña -Montes Universal ) did not reveal the existence of new hydrogeological interrelationships that influenced water balances made Tajo / Guadiela, confirming the findings of the hydrogeological studies previously analyzed. We proceeded to confront and validate the results of the evolution of groundwater reserves by the following alternative procedures: - Calculate the parameters drain depletion curve corresponding to the volume of groundwater draining into the Tajo / Guadiela. This has been made from monthly inflows in the reservoirs of Entrepeñas and Buendia during the months of June, July, August and September, whose values match the typical profile of an aquifer discharges. From these has been determined for the first of June each year of the time series considered drainage volume - Determination of base flow by Wallingford method and deduction of drainage volumes. Estimate of annual recharge - Quantification of the annual recharge by the method Sanz Menéndez Pidal of Navascués and Távara. Very approximate values recharge between calculated for the last two mentioned methods were obtained. Concerning groundwater reserves stored follow a similar pattern in all cases, allowing consider valid the results achieved through water balance. Confirmed its robustness, simple correlations were sought between the volume of groundwater reserves (as estimated indicator of the effect of infiltration) and volumes from the melting. The conclusion is that the latter do not have a decisive effect on the annual scale infiltration, recharge and variation in volumes of groundwater, against the weight of other variables (precipitation and evapotranspiration). However found a good multiple correlation between the estimated recharge and effective precipitation (precipitation minus evapotranspiration) and fusion, which allowed quantify the contribution of the latter. Subsequently it has resorted to the selection of the most intense episodes of accumulation / melting in the headwaters of the Tagus and Guadiela. And we proceeded to the comparison between the results obtained by application of the simulation model in the same periods (usually several days) with real data and fictitious temperature data to annul or decrease the presence of snow, appreciating a great sensitivity of the effect of temperature on evapotranspiration and establishing linear correlations between the volumes of melting and increased groundwater reserves again. They confirm the “flattering " effect of water accumulation as snow and subsequent liquefaction of the infiltration of water into the soil and underground storage. Finally various climate scenarios (+1ºC; +3ºC; +1ºC y – 10% precipitation; y 3ºC – 10% precipitation) were established consistent with IPCC projections for mid - to late - century, determined through simulation ASTER corresponding values of melting. The correlation established on an annual scale has allowed to evaluate the effect of decreasing the volume of melt - in different scenarios - on recharge, predicting a decline in low flows and the disappearance of "snow effect" on infiltration and recharge with an increase of 3°C temperature. Given the conditions of representativeness of the chosen area, plausible extension of the above findings to other landlocked headwaters in mid-mountain areas located between 1000 to 2000m and its downstream effects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Energía eléctrica producida mediante tecnología eólica flotante es uno de los recursos más prometedores para reducir la dependencia de energía proveniente de combustibles fósiles. Esta tecnología es de especial interés en países como España, donde la plataforma continental es estrecha y existen pocas áreas para el desarrollo de estructuras fijas. Entre los diferentes conceptos flotantes, esta tesis se ha ocupado de la tipología semisumergible. Estas plataformas pueden experimentar movimientos resonantes en largada y arfada. En largada, dado que el periodo de resonancia es largo estos puede ser inducidos por efectos de segundo orden de deriva lenta que pueden tener una influencia muy significativa en las cargas en los fondeos. En arfada las fuerzas de primer orden pueden inducir grandes movimientos y por tanto la correcta determinación del amortiguamiento es esencial para la analizar la operatividad de la plataforma. Esta tesis ha investigado estos dos efectos, para ello se ha usado como caso base el diseño de una plataforma desarrollada en el proyecto Europeo Hiprwind. La plataforma se compone de 3 columnas cilíndricas unidas mediante montantes estructurales horizontales y diagonales, Los cilindros proporcionan flotabilidad y momentos adrizante. A la base de cada columna se le ha añadido un gran “Heave Plate” o placa de cierre. El diseño es similar a otros diseños previos (Windfloat). Se ha fabricado un modelo a escala de una de las columnas para el estudio detallado del amortiguamiento mediante oscilaciones forzadas. Las dimensiones del modelo (1m diámetro en la placa de cierre) lo hacen, de los conocidos por el candidato, el mayor para el que se han publicado datos. El diseño del cilindro se ha realizado de tal manera que permite la fijación de placas de cierre planas o con refuerzo, ambos modelos se han fabricado y analizado. El modelo con refuerzos es una reproducción exacta del diseño a escala real incluyendo detalles distintivos del mismo, siendo el más importante la placa vertical perimetral. Los ensayos de oscilaciones forzadas se han realizado para un rango de frecuencias, tanto para el disco plano como el reforzado. Se han medido las fuerzas durante los ensayos y se han calculado los coeficientes de amortiguamiento y de masa añadida. Estos coeficientes son necesarios para el cálculo del fondeo mediante simulaciones en el dominio del tiempo. Los coeficientes calculados se han comparado con la literatura existente, con cálculos potenciales y por ultimo con cálculos CFD. Para disponer de información relevante para el diseño estructural de la plataforma se han medido y analizado experimentalmente las presiones en la parte superior e inferior de cada placa de cierre. Para la correcta estimación numérica de las fuerzas de deriva lenta en la plataforma se ha realizado una campaña experimental que incluye ensayos con modelo cautivo de la plataforma completa en olas bicromaticas. Pese a que estos experimentos no reproducen un escenario de oleaje realista, los mismos permiten una verificación del modelo numérico mediante la comparación de fuerzas medidas en el modelo físico y el numérico. Como resultados de esta tesis podemos enumerar las siguientes conclusiones. 1. El amortiguamiento y la masa añadida muestran una pequeña dependencia con la frecuencia pero una gran dependencia con la amplitud del movimiento. siendo coherente con investigaciones existentes. 2. Las medidas con la placa de cierre reforzada con cierre vertical en el borde, muestra un amortiguamiento significativamente menor comparada con la placa plana. Esto implica que para ensayos de canal es necesario incluir estos detalles en el modelo. 3. La masa añadida no muestra grandes variaciones comparando placa plana y placa con refuerzos. 4. Un coeficiente de amortiguamiento del 6% del crítico se puede considerar conservador para el cálculo en el dominio de la frecuencia. Este amortiguamiento es equivalente a un coeficiente de “drag” de 4 en elementos de Morison cuadráticos en las placas de cierre usadas en simulaciones en el dominio del tiempo. 5. Se han encontrado discrepancias en algunos valores de masa añadida y amortiguamiento de la placa plana al comparar con datos publicados. Se han propuesto algunas explicaciones basadas en las diferencias en la relación de espesores, en la distancia a la superficie libre y también relacionadas con efectos de escala. 6. La presión en la placa con refuerzos son similares a las de la placa plana, excepto en la zona del borde donde la placa con refuerzo vertical induce una gran diferencias de presiones entre la cara superior e inferior. 7. La máxima diferencia de presión escala coherentemente con la fuerza equivalente a la aceleración de la masa añadida distribuida sobre la placa. 8. Las masas añadidas calculadas con el código potencial (WADAM) no son suficientemente precisas, Este software no contempla el modelado de placas de pequeño espesor con dipolos, la poca precisión de los resultados aumenta la importancia de este tipo de elementos al realizar simulaciones con códigos potenciales para este tipo de plataformas que incluyen elementos de poco espesor. 9. Respecto al código CFD (Ansys CFX) la precisión de los cálculos es razonable para la placa plana, esta precisión disminuye para la placa con refuerzo vertical en el borde, como era de esperar dado la mayor complejidad del flujo. 10. Respecto al segundo orden, los resultados, en general, muestran que, aunque la tendencia en las fuerzas de segundo orden se captura bien con los códigos numéricos, se observan algunas reducciones en comparación con los datos experimentales. Las diferencias entre simulaciones y datos experimentales son mayores al usar la aproximación de Newman, que usa únicamente resultados de primer orden para el cálculo de las fuerzas de deriva media. 11. Es importante remarcar que las tendencias observadas en los resultados con modelo fijo cambiarn cuando el modelo este libre, el impacto que los errores en las estimaciones de fuerzas segundo orden tienen en el sistema de fondeo dependen de las condiciones ambientales que imponen las cargas ultimas en dichas líneas. En cualquier caso los resultados que se han obtenido en esta investigación confirman que es necesaria y deseable una detallada investigación de los métodos usados en la estimación de las fuerzas no lineales en las turbinas flotantes para que pueda servir de guía en futuros diseños de estos sistemas. Finalmente, el candidato espera que esta investigación pueda beneficiar a la industria eólica offshore en mejorar el diseño hidrodinámico del concepto semisumergible. ABSTRACT Electrical power obtained from floating offshore wind turbines is one of the promising resources which can reduce the fossil fuel energy consumption and cover worldwide energy demands. The concept is the most competitive in countries, such as Spain, where the continental shelf is narrow and does not provide space for fixed structures. Among the different floating structures concepts, this thesis has dealt with the semisubmersible one. Platforms of this kind may experience resonant motions both in surge and heave directions. In surge, since the platform natural period is long, such resonance can be excited with second order slow drift forces and may have substantial influence on mooring loads. In heave, first order forces can induce significant motion, whose damping is a crucial factor for the platform downtime. These two topics have been investigated in this thesis. To this aim, a design developed during HiPRWind EU project, has been selected as reference case study. The platform is composed of three cylindrical legs, linked together by a set of structural braces. The cylinders provide buoyancy and restoring forces and moments. Large circular heave plates have been attached to their bases. The design is similar to other documented in literature (e.g. Windfloat), which implies outcomes could have a general value. A large scale model of one of the legs has been built in order to study heave damping through forced oscillations. The final dimensions of the specimen (one meter diameter discs) make it, to the candidate’s knowledge, the largest for which data has been published. The model design allows for the fitting of either a plain solid heave plate or a flapped reinforced one; both have been built. The latter is a model scale reproduction of the prototype heave plate and includes some distinctive features, the most important being the inclusion of a vertical flap on its perimeter. The forced oscillation tests have been conducted for a range of frequencies and amplitudes, with both the solid plain model and the vertical flap one. Forces have been measured, from which added mass and damping coefficients have been obtained. These are necessary to accurately compute time-domain simulations of mooring design. The coefficients have been compared with literature, and potential flow and CFD predictions. In order to provide information for the structural design of the platform, pressure measurements on the top and bottom side of the heave discs have been recorded and pressure differences analyzed. In addition, in order to conduct a detailed investigation on the numerical estimations of the slow-drift forces of the HiPRWind platform, an experimental campaign involving captive (fixed) model tests of a model of the whole platform in bichromatic waves has been carried out. Although not reproducing the more realistic scenario, these tests allowed a preliminary verification of the numerical model based directly on the forces measured on the structure. The following outcomes can be enumerated: 1. Damping and added mass coefficients show, on one hand, a small dependence with frequency and, on the other hand, a large dependence with the motion amplitude, which is coherent with previously published research. 2. Measurements with the prototype plate, equipped with the vertical flap, show that damping drops significantly when comparing this to the plain one. This implies that, for tank tests of the whole floater and turbine, the prototype plate, equipped with the flap, should be incorporated to the model. 3. Added mass values do not suffer large alterations when comparing the plain plate and the one equipped with a vertical flap. 4. A conservative damping coefficient equal to 6% of the critical damping can be considered adequate for the prototype heave plate for frequency domain analysis. A corresponding drag coefficient equal to 4.0 can be used in time domain simulations to define Morison elements. 5. When comparing to published data, some discrepancies in added mass and damping coefficients for the solid plain plate have been found. Explanations have been suggested, focusing mainly on differences in thickness ratio and distance to the free surface, and eventual scale effects. 6. Pressures on the plate equipped with the vertical flap are similar in magnitude to those of the plain plate, even though substantial differences are present close to the edge, where the flap induces a larger pressure difference in the reinforced case. 7. The maximum pressure difference scales coherently with the force equivalent to the acceleration of the added mass, distributed over the disc surface. 8. Added mass coefficient values predicted with the potential solver (WADAM) are not accurate enough. The used solver does not contemplate modeling thin plates with doublets. The relatively low accuracy of the results highlights the importance of these elements when performing potential flow simulations of offshore platforms which include thin plates. 9. For the full CFD solver (Ansys CFX), the accuracy of the computations is found reasonable for the plain plate. Such accuracy diminishes for the disc equipped with a vertical flap, an expected result considering the greater complexity of the flow. 10. In regards to second order effects, in general, the results showed that, although the main trend in the behavior of the second-order forces is well captured by the numerical predictions, some under prediction of the experimental values is visible. The gap between experimental and numerical results is more pronounced when Newman’s approximation is considered, making use exclusively of the mean drift forces calculated in the first-order solution. 11. It should be observed that the trends observed in the fixed model test may change when the body is free to float, and the impact that eventual errors in the estimation of the second-order forces may have on the mooring system depends on the characteristics of the sea conditions that will ultimately impose the maximum loads on the mooring lines. Nevertheless, the preliminary results obtained in this research do confirm that a more detailed investigation of the methods adopted for the estimation of the nonlinear wave forces on the FOWT would be welcome and may provide some further guidance for the design of such systems. As a final remark, the candidate hopes this research can benefit the offshore wind industry in improving the hydrodynamic design of the semi-submersible concept.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No hay duda de que el ferrocarril es uno de los símbolos del avance tecnológico y social de la humanidad, y su imparable avance desde el primer tercio del Siglo XIX así lo atestigua. No obstante, a lo largo de gran parte de su historia se ha mostrado algo renuente a abrazar ciertas tecnologías, lo que le ha causado ser tachado de conservador. Sin embargo, en los últimos años, coincidiendo con el auge masivo de los trenes de alta velocidad, los metropolitanos y los tranvías, muchas tecnologías han ido penetrando en el mundo del ferrocarril. La que hoy nos ocupa es una de las que mayor valor añadido le ha proporcionado (y que probablemente le proporcionará también en el futuro): las comunicaciones móviles. Actualmente el uso de este tipo de tecnologías en el entorno ferroviario puede calificarse como de inicial o, por seguir la nomenclatura de las comunicaciones móviles públicas, de segunda generación. El GSM-R en las líneas de alta velocidad es un caso (aunque de éxito al fin y al cabo) que define perfectamente el estado del arte de las comunicaciones móviles en este entorno, ya que proporcionó un gran valor añadido a costa de un gran esfuerzo de estandarización; ha supuesto un importante salto adelante en el campo de la fiabilidad de este tipo de sistemas, aunque tiene unas grandes limitaciones de capacidad y graves problemas de escalabilidad. Todo hace pensar que en 2025 el sustituto de GSM-R deberá estar en el mercado. En cualquier caso, se debería abandonar la filosofía de crear productos de nicho, que son extraordinariamente caros, y abrazar las filosofías abiertas de las redes de comunicaciones públicas. Aquí es donde LTE, la última gran estrella de esta familia de estándares, puede aportar mucho valor. La idea subyacente detrás de esta Tesis es que LTE puede ser una tecnología que aporte gran valor a las necesidades actuales (y probablemente futuras) del sector del ferrocarril, no solamente en las líneas y trenes de alta velocidad, sino en las denominadas líneas convencionales y en los metros y tranvías. Dado que es un campo aún a día de hoy que dista bastante de estar completamente estudiado, se ha explorado la problemática de la propagación electromagnética en los diferentes entornos ferroviarios, como pueden ser los túneles de metro y la influencia de las estructuras de los trenes. En este sentido, se ha medido de forma bastante exhaustiva en ambos entornos. Por otro lado, dado que los sistemas multiantena son uno de los pilares fundamentales de los modernos sistemas de comunicaciones, se ha verificado de forma experimental la viabilidad de esta tecnología a la hora de implementar un sistema de comunicaciones trentierra en un túnel. Asimismo, de resultas de estas medidas, se ha comprobado la existencia de ciertos fenómenos físicos que pueden suponer una merma en la eficiencia de este tipo de sistemas. En tercer lugar, y dado que uno de los grandes desafíos de las líneas de alta velocidad está provocado por la gran celeridad a la que se desplazan los trenes, se ha explorado la influencia de este parámetro en la eficiencia global de una red completa de comunicaciones móviles. Por supuesto, se ha hecho especial hincapié en los aspectos relacionados con la gestión de la movilidad (traspasos o handovers Por último, a modo de cierre de la Tesis, se ha tratado de identificar los futuros servicios de comunicaciones que aportarán más valor a las explotaciones ferroviarias, así como los requisitos que supondrán para las redes de comunicaciones móviles. Para los casos antes enunciados (propagación, sistemas multiantena, movilidad y desafíos futuros) se proporcionan las contribuciones ya publicadas en revistas y congresos internacionales, así como las que están enviadas para su revisión. ABSTRACT There is almost no doubt that railways are one of the symbols of the technological and social progress of humanity. However, most of the time railways have been somewhat reluctant to embrace new technologies, gaining some reputation of being conservative. But in the last years, together with the massive boom of high speed lines, subways and trams all over the world, some technologies have broken through these conservative resistance. The one which concerns us now is one of the most value-added (both today and in the future): mobile communications. The state-of-the-art of these technologies in the railway field could be called as incipient, or (following the mobile communications’ notation) ‘second generation’. GSM-R, the best example of mobile communications in railways is a success story that shows perfectly the state-of-the-art of this field: it provided a noticeable mark-up but also required a great standardization effort; it also meant a huge step forward in the reliability of these systems but it also needs to face some scalability issues and some capacity problems. It looks more than feasible that in 2025 the alternative to GSM-R should be already available. Anyway, the vision here should be forgetting about expensive niche products, and embracing open standards like public mobile communications do. The main idea behind this Thesis is that LTE could be a technology that provides a lot of added value to the necessities of the railways of today and the future. And not only to highspeed lines, but also to the so-called conventional rail, subways and tramways. Due to the fact that even today, propagation in tunnels and influence of car bodies is far from being full-studied, we measured in a very exhaustive way the EM propagation in these two environments. Also, multiantenna systems are one of the basic foundations of the modern communications systems, so we experimentally verified the feasibility of using such a system in a train-towayside in a tunnel. Moreover, from the measurements carried out we proved the existence of some physical phenomena that could imply a decrease in the performance of these multiantenna systems. In third place, we have explored the influence of high-speed in the whole performance of the network, from the mobility management point-of-view. This high-speed movement is one of the most relevant challenges for the mobile communications networks. The emphasis was placed on the mobility aspects of the radio resource management. Finally, the Thesis closure is an identification of the future communication services that could provide a bigger addition of value to railways, and also the requirements that imply to mobile communications networks. For all the previous for scenarios depicted before (propagation, multiantenna systems, mobility and challenges) we provide some contributions already published (or submitted for revision or still in progress) on publications and international conferences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ulmus minor es una especie arbórea originaria de Europa cuyas poblaciones han sido diezmadas por el hongo patógeno causante de la enfermedad de la grafiosis. La conservación de los olmos exige plantearse su propagación a través de plantaciones y conocer mejor su ecología y biología. Ulmus minor es un árbol de ribera, pero frecuentemente se encuentra alejado del cauce de arroyos y ríos, donde la capa freática sufre fuertes oscilaciones. Por ello, nuestra hipótesis general es que esta especie es moderadamente resistente tanto a la inundación como a la sequía. El principal objetivo de esta tesis doctoral es entender desde un punto de vista funcional la respuesta de U. minor a la inundación, la sequía y la infección por O. novo-ulmi; los factores que posiblemente más influyen en la distribución actual de U. minor. Con este objetivo se persigue dar continuidad a los esfuerzos de conservación de esta especie que desde hace años se dedican en varios centros de investigación a nivel mundial, ya que, entender mejor los mecanismos que contribuyen a la resistencia de U. minor ante la inoculación con O. novo-ulmi y factores de estrés abiótico ayudará en la selección y propagación de genotipos resistentes a la grafiosis. Se han planteado tres experimentos en este sentido. Primero, se ha comparado la tolerancia de brinzales de U. minor y U. laevis – otro olmo ibérico – a una inmersión controlada con el fin de evaluar su tolerancia a la inundación y comprender los mecanismos de aclimatación. Segundo, se ha comparado la tolerancia de brinzales de U. minor y Quercus ilex – una especie típica de ambientes Mediterránea secos – a la falta de agua en el suelo con el fin de evaluar el grado de tolerancia y los mecanismos de aclimatación a la sequía. El hecho de comparar dos especies contrastadas responde al interés en entender mejor cuales son los procesos que conducen a la muerte de una planta en condiciones de sequía – asunto sobre el que hay una interesante discusión desde hace algunos años. En tercer lugar, con el fin de entender mejor la resistencia de algunos genotipos de U. minor a la grafiosis, se han estudiado las diferencias fisiológicas y químicas constitutivas e inducidas por O. novo-ulmi entre clones de U. minor seleccionados a priori por su variable grado de resistencia a esta enfermedad. En el primer experimento se observó que los brinzales de U. minor sobrevivieron 60 días inmersos en una piscina con agua no estancada hasta una altura de 2-3 cm por encima del cuello de la raíz. A los 60 días, los brinzales de U. laevis se sacaron de la piscina y, a lo largo de las siguientes semanas, fueron capaces de recuperar las funciones fisiológicas que habían sido alteradas anteriormente. La conductividad hidráulica de las raíces y la tasa de asimilación de CO2 neta disminuyeron en ambas especies. Por el contrario, la tasa de respiración de hojas, tallos y raíces aumentó en las primeras semanas de la inundación, posiblemente en relación al aumento de energía necesario para desarrollar mecanismos de aclimatación a la inundación, como la hipertrofia de las lenticelas que se observó en ambas especies. Por ello, el desequilibrio del balance de carbono de la planta podría ser un factor relevante en la mortalidad de las plantas ante inundaciones prolongadas. Las plantas de U. minor (cultivadas en envases de 16 litros a media sombra) sobrevivieron por un prolongado periodo de tiempo en verano sin riego; la mitad de las plantas murieron tras 90 días sin riego. El cierre de los estomas y la pérdida de hojas contribuyeron a ralentizar las pérdidas de agua y tolerar la sequía en U. minor. Las obvias diferencias en tolerancia a la sequía con respecto a Q. ilex se reflejaron en la distinta capacidad para ralentizar la aparición del estrés hídrico tras dejar de regar y para transportar agua en condiciones de elevada tensión en el xilema. Más relevante es que las plantas con evidentes síntomas de decaimiento previo a su muerte exhibieron pérdidas de conductividad hidráulica en las raíces del 80% en ambas especies, mientras que las reservas de carbohidratos apenas variaron y lo hicieron de forma desigual en ambas especies. Árboles de U. minor de 5 y 6 años de edad (plantados en eras con riego mantenido) exhibieron una respuesta a la inoculación con O. novo-ulmi consistente con ensayos previos de resistencia. La conductividad hidráulica del tallo, el potencial hídrico foliar y la tasa de asimilación de CO2 neta disminuyeron significativamente en relación a árboles inoculados con agua, pero solo en los clones susceptibles. Este hecho enlaza con el perfil químico “más defensivo” de los clones resistentes, es decir, con los mayores niveles de suberina, ácidos grasos y compuestos fenólicos en estos clones que en los susceptibles. Ello podría restringir la propagación del hongo en el árbol y preservar el comportamiento fisiológico de los clones resistentes al inocularlos con el patógeno. Los datos indican una respuesta fisiológica común de U. minor a la inundación, la sequía y la infección por O. novo-ulmi: pérdida de conductividad hidráulica, estrés hídrico y pérdida de ganancia neta de carbono. Pese a ello, U. minor desarrolla varios mecanismos que le confieren una capacidad moderada para vivir en suelos temporalmente anegados o secos. Por otro lado, el perfil químico es un factor relevante en la resistencia de ciertos genotipos a la grafiosis. Futuros estudios deberían examinar como este perfil químico y la resistencia a la grafiosis se ven alteradas por el estrés abiótico. ABSTRACT Ulmus minor is a native European elm species whose populations have been decimated by the Dutch elm disease (DED). An active conservation of this species requires large-scale plantations and a better understanding of its biology and ecology. U. minor generally grows close to water channels. However, of the Iberian riparian tree species, U. minor is the one that spread farther away from rivers and streams. For these reasons, we hypothesize that this species is moderately tolerant to both flooding and drought stresses. The main aim of the present PhD thesis is to better understand the functional response of U. minor to the abiotic stresses – flooding and drought – and the biotic stress – DED – that can be most influential on its distribution. The overarching goal is to aid in the conservation of this emblematic species through a better understanding of the mechanisms that contribute to resistance to abiotic and biotic stresses; an information that can help in the selection of resistant genotypes and their expansion in large-scale plantations. To this end, three experiments were set up. First, we compared the tolerance to experimental immersion between seedlings of U. minor and U. laevis – another European riparian elm species – in order to assess their degree of tolerance and understand the mechanisms of acclimation to this stress. Second, we investigated the tolerance to drought of U. minor seedlings in comparison with Quercus ilex (an oak species typical of dry Mediterranean habitats). Besides assessing and understanding U. minor tolerance to drought at the seedling stage, the aim was to shed light into the functional alterations that trigger drought-induced plant mortality – a matter of controversy in the last years. Third, we studied constitutive and induced physiological and biochemical differences among clones of variable DED resistance, before and following inoculation with Ophiostoma novo-ulmi. The goal is to shed light into the factors of DED resistance that is evident in some genotypes of U. minor, but not others. Potted seedlings of U. minor survived for 60 days immersed in a pool with running water to approximately 2-3 cm above the stem collar. By this time, U. minor seedlings died, whereas U. laevis seedlings moved out of the pool were able to recover most physiological functions that had been altered by flooding. For example, root hydraulic conductivity and leaf photosynthetic CO2 uptake decreased in both species; while respiration initially increased with flooding in leaves, stems and roots possibly to respond to energy demands associated to mechanisms of acclimation to soil oxygen deficiency; as example, a remarkable hypertrophy of lenticels was soon observed in flooded seedlings of both species. Therefore, the inability to maintain a positive carbon balance somehow compromises seedling survival under flooding, earlier in U. minor than U. laevis, partly explaining their differential habitats. Potted seedlings of U. minor survived for a remarkable long time without irrigation – half of plants dying only after 90 days of no irrigation in conditions of high vapour pressure deficit typical of summer. Some mechanisms that contributed to tolerate drought were leaf shedding and stomata closure, which reduced water loss and the risk of xylem cavitation. Obviously, U. minor was less tolerant to drought than Q. ilex, differences in drought tolerance resulting mostly from the distinct capacity to postpone water stress and conduct water under high xylem tension among species. More relevant was that plants of both species exhibited similar symptoms of root hydraulic failure (i.e. approximately 80% loss of hydraulic conductivity), but a slight and variable depletion of non-structural carbohydrate reserves preceding dieback. Five- and six-year-old trees of U. minor (planted in the field with supplementary watering) belonging to clones of contrasted susceptibility to DED exhibited a different physiological response to inoculation with O. novo-ulmi. Stem hydraulic conductivity, leaf water potential and photosynthetic CO2 uptake decreased significantly relative to control trees inoculated with water only in DED susceptible clones. This is consistent with the “more defensive” chemical profile observed in resistant clones, i.e. with higher levels of saturated hydrocarbons (suberin and fatty acids) and phenolic compounds than in susceptible clones. These compounds could restrict the spread of O. novo-ulmi and contribute to preserving the near-normal physiological function of resistant trees when exposed to the pathogen. These results evidence common physiological responses of U. minor to flooding, drought and pathogen infection leading to xylem water disruption, leaf water stress and reduced net carbon gain. Still, seedlings of U. minor develop various mechanisms of acclimation to abiotic stresses that can play a role in surviving moderate periods of flood and drought. The chemical profile appears to be an important factor for the resistance of some genotypes of U. minor to DED. How abiotic stresses such as flooding and drought affect the capacity of resistant U. minor clones to face O. novo-ulmi is a key question that must be contemplated in future research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Cuba, las arvenses que afectan al cultivo de la caña de azúcar son una de las causas fundamentales de los bajos rendimientos agrícolas y su control constituye unas de las principales partidas de gastos. En general, se aplican los herbicidas, así como otros métodos de control, sin tener en cuenta el tipo de suelo y las características de estas plantas. Sobre el manejo de arvenses no existen trabajos de investigación que aborden aspectos de eficiencia energética de las producciones y daños al ambiente. Por lo antes señalado, el objetivo de esta investigación fue evaluar diversas tecnologías de manejo de arvenses en el cultivo de la caña de azúcar (Saccharum spp. híbrido), en cepas de primavera y retoño, en tres tipos de suelos, con el propósito de obtener producciones sustentables. El área de estudio se localizó en los campos de la Empresa Azucarera del municipio “Majibacoa”, provincia de Las Tunas (oriente de Cuba), que posee condiciones edafoclimáticas que abundan a lo largo del país. Los tres tipos de suelos más representativos son Fersialítico Pardo Rojizo ócrico, Pardo Mullido y Vertisol Crómico gléyco. En dicha área se han identificado 31 especies de arvenses, 16 de la clase Liliopsida y 15 de la Magnoliopsida. En un primer grupo de experimentos, se desarrollaron nueve ensayos de campo para evaluar la efectividad de herbicidas y mezclas de estos en el manejo de arvenses en el cultivo de la caña de azúcar, tanto en cepas de primavera como de retoño, en los tres tipos de suelos. Se establecieron parcelas de 80 m2 distribuidas en bloques al azar con cuatro réplicas. La efectividad se evaluó por medio del porcentaje de cobertura por arvenses y la fitotoxicidad provocada a las plantas de caña, teniendo en cuenta el coste asociado a cada tratamiento. En aplicaciones preemergentes en caña planta de primavera, el herbicida más eficiente fue el Isoxaflutole con dosis de 0,15; 0,20 y 0,25 kg.ha-1 de producto comercial (pc) en los suelos Fersialítico, Pardo y Vertisol respectivamente. En aplicaciones postemergentes tempranas la mezcla más eficiente fue la de Isoxaflutole + Ametrina +2,4-D con las dosis de Isoxaflutole citadas anteriormente. En aplicaciones preemergentes en cepa de retoño, el herbicida más eficiente fue el Isoxaflutole a dosis de 0,20 kg.ha-1 pc para el suelo Fersialítico y a 0,25 kg.ha-1 pc para los suelos Pardo y Vertisol. En un segundo grupo, se realizaron seis ensayos de campo distribuidos en dos fases. En la primera fase, se desarrollaron tres experimentos, uno por cada tipo de suelo, para evaluar la eficiencia de nueve tecnologías de manejo de arvenses (químicas y físicas combinadas) en cepa de primavera de caña de azúcar. En la siguiente fase, los tres ensayos restantes (uno por tipo de suelo) evaluaron tecnologías de manejo de arvenses durante dos ciclos de producción de caña de azúcar (etapa de primavera y retoño). En la etapa de primavera se aplicó la tecnología más eficiente de los tres experimentos anteriores y durante la etapa de retoño se evaluaron otras nueve tecnologías propias de este tipo de cepa. En estos experimentos los diferentes tratamientos se aplicaron en franjas distribuidas al azar con cuatro réplicas. En las tecnologías evaluadas se emplearon los herbicidas y mezclas que resultaron más eficientes en el primer grupo de experimentos. En cada caso, se evaluaron la eficiencia energética de la producción de azúcar y otros derivados, la resistencia a la penetración de los suelos, la carga contaminante hacia la atmósfera producto de la combustión del diésel y los beneficios al aplicar las diferentes tecnologías. En la primera fase (cepa de primavera), la tecnología con mejor resultado fue la aplicación preemergente de Isoxaflutole inmediatamente después de la plantación, seguida de descepe químico con Glufosinato de amonio, más labor con grada múltiple aproximadamente a los 80 días de la plantación y aplicación pre-cierre con Glufosinato de amonio. En la segunda fase (dos ciclos del cultivo), el mejor resultado se obtuvo cuando en la etapa de retoño se realizó una aplicación preemergente de Isoxaflutole, descepe químico con Glufosinato de amonio y aplicación pre-cierre con este mismo herbicida. En los tres tipos de suelos durante los dos ciclos, la eficiencia energética tuvo valores de 7,2 - 7,5, la resistencia a la penetración 1,2 - 1,5 MPa, la carga contaminante hacia la atmósfera fue de 63,3 - 64,9 kg.t-1 de caña cosechada y beneficios de 8.324 - 8.455 pesos cubanos por hectárea. Este estudio demuestra que un control eficiente de las arvenses debe tener en cuenta necesariamente el tipo de suelo. Así, en los Vertisoles, con mayor contenido en arcilla, se requieren mayores dosis de Isoxaflutole y la eficiencia energética de la producción es menor. La persistencia de ciertas arvenses, especialmente de la clase Liliopsida, requiere de un manejo integrado que incluya diferentes tipos de herbicidas. ABSTRACT In Cuba, weeds affecting the sugarcane are one of the main causes of low agricultural yields, and their control constitutes some of the main items of expenditure. In general, herbicides are applied, as well as other control methods, without keeping in mind the soil type and the characteristics of these plants. Moreover, weed control research approaching aspects about energy efficiency of the crop production, and environmental damages are missing. Hence, the objective of this investigation was to evaluate diverse technologies of weed handling in sugarcane (Saccharum spp. hybrid), both in spring cane plant and ratoon, in three types of soils, with the purpose of obtaining sustainable productions. The study area was located in the fields of the Sugar Enterprise of the Municipality "Majibacoa”, Las Tunas province (east of Cuba) that possesses ecological conditions that are plentiful along the country. The three more representative types of soils are Fersialitic, Brown, and Vertisol. In this area 31 weeds species have been identified, 16 of the Class Liliopsida and 15 of the Magnoliopsida. In a first group of experiments, nine field rehearsals were developed to evaluate the effectiveness of herbicides and mixtures of these for weed handling in sugarcane, in spring cane plants as well as in ratoon, in the three types of soils. Plots of 80 m-2 were distributed at random blocks with four replications. The effectiveness was evaluated by means of the covering percentage by weeds and the provoked toxicity to the cane plants, keeping in mind the cost associated to each treatment. In preemergence applications in spring cane plant, the most efficient herbicide was the Isoxaflutole with dose of 0.15; 0.20 and 0.25 kg.ha-1 of commercial product (pc) in the soils Fersialítico, Brown and Vertisol respectively. In early postemergence applications the most efficient mixture was that of Isoxaflutole + Ametrina + 2,4-D with the doses of Isoxaflutole mentioned previously. In preemergence applications in ratoon, the most efficient herbicide was the Isoxaflutole at dose of 0.20 kg.ha-1 pc for the soil Fersialític and to 0.25 kg. ha-1 pc for the Brown soil and Vertisol. In a second group, six field rehearsals distributed in two phases were carried out. In the first phase, three experiments were developed, one for each soil type, to evaluate the efficiency of nine technologies of weed handling in spring cane plant. In the following phase, the three remaining rehearsals (one for each soil type) diverse technologies of weed handling were evaluated during two cycles of sugarcane production (spring stage and ratoon). In the spring stage the most efficient technology in the three previous experiments was applied and during ratoon stage other nine technologies were evaluated. In these experiments the different treatments were applied in fringes distributed at random with four replicas. In the evaluated technologies the herbicides and mixtures were used selecting those that were more efficient in the first group of experiments. In each case, the energy efficiency of the sugar production and other derivatives, the soil penetration resistance, the polluting load toward the atmosphere product of the combustion, and the benefits when applying the different technologies were all evaluated. In the first phase (spring cane plant), the technology with better result was the preemergence application of Isoxaflutole immediately after the plantation, followed by chemical eradication with Ammonia Glufosinate, hoeing work with multiple tier approximately to the 80 days of the plantation and pre-closing application with Ammonia Glufosinate. In the second phase (two cycles of the cultivation), the best result was obtained when a preemergence application of Isoxaflutole was carried out in sprout's stage, chemical eradication with Ammonia Glufosinate and pre-closing application with this same herbicide. In the three types of soils during the two cycles, the energy efficiency achieved values of 7.2 to 7.5, the resistance to the penetration 1.2 - 1.5 MPa, the polluting load toward the atmosphere was of 63.3 - 64.9 kg.t-1 of the harvested cane and the obtained benefits of 8,324 - 8,455 Cuban pesos per hectare. This study demonstrates that an efficient control of the weeds should necessarily keep in mind the soil type. This way, in the Vertisols, with more clay content, bigger dose of Isoxaflutole is required and the energy efficiency of the production is smaller. The persistence of certain weeds, especially of the class Liliopsida, requires of an integrated handling him to include different types of herbicides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo general de la presente Tesis es identificar algunas de las características anatómico-fisiológicas que confieren la capacidad de alcanzar una mejor productividad bajo clima mediterráneo a plantas de diversos genotipos de los géneros Populus y Eucalyptus, caracterizados por su carácter pionero, elevado crecimiento y vulnerabilidad a la cavitación. En los dos primeros capítulos se hace un seguimiento de la conductancia estomática a una selección de clones de eucalipto cultivados en invernadero, sometidos a diferentes dotaciones hídricas. Se realizaron además mediciones periódicas del pH de la savia del tallo y de la pérdida de conductividad hidráulica para investigar su implicación en la regulación química e hidraúlica del cierre estomático. Las variaciones en el pH de la savia obtenidas parecen responder a cambios en el déficit de presión de vapor de agua atmosférico y no a diferencias en la disponibilidad de agua en el suelo. La conductancia estomática presentó una correlación positiva significativa con el pH de la savia, pero no con la conductividad hidráulica. La variabilidad de la conductividad hidráulica máxima se discute a la luz de recientes investigaciones sobre los materiales constituyentes de las membranas de las punteaduras. Los clones que mostraron mayores conductancias hidráulicas y estomáticas presentaron valores más altos de producción y supervivencia, poniendo de manifiesto la utilidad del estudio de estas variables. Por el contrario, los valores más bajos de conductancia estomática e hidraúlica se encontraron en clones que han resultado un fracaso en plantaciones comerciales, en particular, fue destacable el mal resultado de un clon procedente de autocruzamiento respecto de otros híbridos. En el tercer capítulo de la tesis se estudian características anatómicas y funcionales del xilema relacionadas con la eficiencia en el transporte de agua a las hojas, y que pueden afectar directa o indirectamente a la transpiración y al crecimiento. Los estudios anatómicos fueron realizados sobre brotes anuales de chopo en una plantación situada en Granada, en condiciones de riego limitante. La combinación de rasgos anatómicos más favorable de cara a la producción de biomasa fue una densidad alta de vasos de diámetro intermedio. Los clones más productivos figuraron entre los más resistentes a la cavitación. Para estudiar el crecimiento de masas arboladas se utilizan frecuentemente parámetros fisiológicos como el índice de area foliar (LAI). La estimación del LAI a partir de fotografías hemisféricas aplicada a tallares de chopo plantados a alta densidad y a turno corto para biomasa se lleva a cabo mediante una metodología reciente empleada y discutida en el cuarto capítulo de la Tesis. Los resultados muestran que las diferencias de producción existentes entre genotipos, localidades de medición con diferentes dosis de riego, y años, pueden predecirse a partir de la determinación del índice de área foliar tanto por métodos directos como indirectos de estimación. Tanto los estudios realizados en eucalipto como en chopo han mostrado que los genotipos con menores producciones de biomasa en campo alcanzaron los menores valores de conductancia estomática en las condiciones más favorables así como el menor número de vasos en el xilema. La estrecha relación entre crecimiento y LAI confirma una vez más la importancia del desarrollo de la copa para sostener un buen crecimiento. El mayor desarrollo de la copa y rendimiento en biomasa se midieron en uno de los clones con un número de vasos más elevado, y menor vulnerabilidad a la cavitación en condiciones de estrés. Estos resultados ponen de manifiesto la importancia de las características anatómicas y funcionales del xilema como condicionantes del patrón de crecimiento de las plantas y el comportamiento de los estomas. ABSTRACT A number of anatomical xylem traits and physiological variables were analyzed in genotypes of both the Populus and Eucalyptus genera with the main aim of identifying traits in the genotypes which confer the ability to produce an acceptable biomass yield under Mediterranean climatic conditions. In the first two chapters of this PhD, the results of two experiments carried out on several clones of the species Eucalyptus globulus Labill. are presented. Chapters three and four include the results of another two trials on four poplar hybrid genotypes. One of the initial plant responses to water stress is stomatal closure, which can be triggered by hydraulic and/or chemical signals. The two first chapters of this PhD deal with trials in which stomatal conductance and percentage loss of hydraulic conductivity were monitored on a set of eucalyptus clones supplied by ENCE (former National Cellulose Company) and currently used in the company’s own commercial plantings. The experimental trials were carried out in greenhouses and the plants were submitted to two different watering regimes. The pH of the stem sap was periodically measured as the greenhouse temperature and humidity changed. The aim of these measurements was to investigate the role of both sap pH and percentage loss of hydraulic conductivity on stomatal regulation. The results obtained suggest that changes in sap pH are a response to vapor pressure deficit changes rather than to differences in soil water availability. We found significant correlation between stomatal conductance and sap pH, although no significant relationship was found between stomatal conductance and hydraulic conductivity. Variability in maximum hydraulic conductivity is discussed based on recent pit membrane constituent research. The study of hydraulic conductivity proved helpful in order to detect the clones with both higher growth and greater chance of survival, since clones displaying the lowest hydraulic conductivities were those that failed in commercial plantings. Anatomical xylem traits define the water transport efficiency to leaves and can therefore limit transpiration and growth. The third chapter of this PhD addresses anatomical xylem traits in poplar. One year old stem samples were taken from a water-stressed trial in Granada. The anatomical xylem study proved useful for detecting the lowest yielding genotypes. Clones with intermediate vessel size and high vessel densities were found to be those with the highest biomass yield. Differences in cavitation resistance depending on the clone tested and the water treatment applied were also found. The clones with the highest biomass yield were found to be among the most cavitation resistant clones in each watering regime. Xylem and physiological traits along with stomatal behavior are useful tools to determine plant growth. In order to study plantings or forests, it is more common to employ other physiological variables such as leaf area index (LAI). LAI estimation from hemispherical photographs applied to short rotation woody crops is a recently developed method that still requires fine tuning through further investigation. In the fourth chapter, data from LAI monitoring over two consecutive years were analyzed in two different locations where different irrigation treatments were applied. The results showed that differences in yield between genotypes, different irrigation regimes and years could be predicted by using the LAI estimates, either through direct or indirect estimation methods. Our studies of poplar and eucalyptus have shown that the field-grown genotypes with the lowest biomass yield displayed the lowest values of stomatal conductance under the most favorable environmental conditions and also had a low number of xylem conduits. The close relationship between LAI and growth highlights the importance of crown development in biomass growth. The highest LAI and biomass yield were recorded in one of the clones with higher vessel density and the lowest vulnerability to cavitation under stress conditions. These results underline the importance of research into anatomical and functional traits as factors influencing plant growth patterns and stomatal behavior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis ≪Peter Celsing en el complejo de Sergels torg. La Casa de la Cultura de Estocolmo ≫ intenta profundizar en la obra de este autor, en sus conexiones con otras arquitecturas y arquitectos de su entorno físico y temporal, que constituye uno de los episodios más interesantes y menos conocidos de la arquitectura nórdica. El objeto particular de estudio es la Casa de la Cultura dentro del complejo de Sergels torg como pieza clave que marca un antes y un después en su trayectoria. Se observa un proceso de desarrollo constante, que se fue gestando paulatinamente, y que en este ejercicio alcanza su punto álgido. Además, los proyectos que coexistieron con su evolución, y los posteriores, filtraron las inquietudes latentes del mayor reto al que se había enfrentado, dando pie a resultados novedosos en su producción. La investigación se estructura en tres capítulos. El primero, ≪Aprendizaje≫, examina sus experiencias de juventud, viajes de estudios y lecciones de sus maestros; así como sus inicios profesionales en el proyecto de restauración de la Catedral de Uppsala y en sus iglesias junto a Lewerentz. En ese periodo prima lo formal y escultórico, el hormigón y el ladrillo artesanal, y como referencia Le Corbusier y la capilla de Ronchamp. El segundo capítulo, ≪Obra≫, estudia el concurso que da origen a la Casa de la Cultura, su proceso de gestación y diseño, y las modificaciones posteriores durante su construcción. De repente emergen las cualidades espaciales y los sistemas estructurales aprendidos de Mies en el Crown Hall de Chicago, la gran escala de la metrópoli y las soluciones industriales ligeras. El tercer capítulo, ≪Madurez≫, sirve de cierre, y revisa su trayectoria posterior con relación a la obra referida. Tras este edificio, el diseño de las propuestas coetáneas se vuelve más abstracto y sencillo, gana en autonomía, rotundidad, atrevimiento y carácter. Las conclusiones verifican el cambio de actitud y de paradigmas. Hay elementos como las distorsiones, los contrastes y las manipulaciones, aprendidas en sus primeros años de formación y junto a Lewerentz, si bien es cierto que ahora han aumentado proporcionalmente a la escala de sus intervenciones e incluso se observan en el detalle, como sucede en el encuentro de los materiales y su montaje. Su visión, su punto de vista se eleva, y la pieza adopta una volumetría compacta y unitaria. Cada nuevo trabajo sintetiza un enfoque más universal y abierto en conceptos y metodología operativa. Sus preocupaciones nos hablan de un arquitecto consciente de su tiempo y cuya arquitectura final mira ya al siglo XXI. ABSTRACT The thesis ≪Peter Celsing in the complex of Sergels torg. The House of Culture in Stockholm ≫ delves deeper into the work of this author, in his connections with other architectures and architects of his physical and temporal surroundings, which is one of the most interesting and least known episodes of Nordic architecture. The particular focus of this study is how the House of Culture, a key point within the complex of Sergels torg, marks a before and after in his career. There is an observable process of constant development, which was growing steadily, and reaches its critical point in this exercise. In addition, the projects that coexisted during his evolution and those that came before, reveal latent concerns leading up to the biggest challenge he would face, ultimately giving way to new developments in his work. The study is divided into three chapters. The first, ≪Learning≫, examines his experiences as a youth, academic trips and lessons from his masters; as well as his professional beginnings alongside Lewerentz in the restoration project of Uppsala Cathedral and his churches. In that period the formal and sculptural were given preference, also concrete and handmade brick. And as reference, there is Le Corbusier and the chapel at Ronchamp. The second chapter, ≪Work≫, studies the competition that gives rise to the House of Culture, the gestation process and design and subsequent amendments during its construction. Suddenly the spatial qualities and structural systems learned from Mies in Crown Hall of Chicago emerge, the large scale of the metropolis and light industrial solutions. The third chapter, ≪Maturity≫, serves as the closure and examines his subsequent career in relation to said work. After this building, the design of coetaneous proposals become more abstract and simple, gaining autonomy, firmness, boldness and character. The conclusions verify the change in attitudes and paradigms. There are elements such as distortions, contrasts and manipulations, learned in his early years of training and with Lewerentz, that have now undeniably increased in proportion to the scale of their involvement and can even be observed in detail, as so happens in the joining of materials and assembly. His vision, his point of view is heightened, and the piece adopts a single and compact volume. Each new work synthesizes a more universal and open focus in concepts and operational methodology. His concerns speak of an architect aware of his time and whose final architecture now looks toward the 21st century.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo seguido en este proyecto fin de carrera, ha sido el análisis de la evolución general de la tecnología, tanto electrónica, como en Telecomunicaciones e Informática, desde sus inicios hasta la actualidad, realizando un estudio sobre cómo esos avances han mejorado, incluso cambiado nuestra vida cotidiana y cómo a consecuencia de la conversión de muchos de estos productos tecnológicos en objeto de consumo masivo, la propia dinámica económico-comercial ha llevado a las empresas a la programación del fin del su vida útil con el objeto de incrementar su demanda y, consiguientemente, la producción. Se trata de lo que se conoce desde hace décadas como Obsolescencia Programada. Para realizar este documento se ha realizado un breve repaso por los acontecimientos históricos que promovieron el inicio de esta práctica, así como también nos ha llevado a realizar mención de todos esos aparatos tecnológicos que han sufrido una mayor evolución y por tanto son los más propensos a que se instauren en ellos, debido a cómo influyen dichos cambios en los consumidores. Otro de los aspectos más importantes que rodean a la Obsolescencia Programada, es cómo influye en el comportamiento de la sociedad, creando en ella actitudes consumistas, que precisamente son las que alimentan que el ciclo económico siga basándose en incluir esta práctica desde el diseño del producto, puesto que a mayor consumo, mayor producción, y por tanto, supone un aumento de beneficios para el fabricante. Aunque, lo que para algunos supone un amplio margen de rentabilidad, existen otros componentes de la ecuación que no salen tan bien parados, como pueden ser los países del tercer mundo que están siendo poblados de basura electrónica, y en general el medio ambiente y los recursos de los que hoy disponemos, que no son ilimitados, y que están viéndose gravemente afectados por la inserción de esta práctica. Como cierre de este análisis, se repasarán algunas de las técnicas empleadas en algunos de los productos más utilizados hoy en día y las conclusiones a las que se han llevado después de analizar todos estos puntos del tema. ABSTRACT. The main goal followed in this final project has been analyzing the overall evolution of technology, both electronics and telecommunications. Also, computer science; from beginning to present it has been realized some studies about these advances have improved our daily life, even changing our routine, and turn us massive consumers of all technological products on the market. This dynamic economic and commercial has led companies to programming the end of its useful life in order to increase demand, and consequently, the production. This is known as Obsolescence. To make this document has been made a brief review through historical events that promoted the opening of this practice, and also led us to make mention all these technological devices have undergone further evolution and therefore more likely to establish them, because these changes affect consumers. Another important aspect around planned obsolescence is how to influence in society’s behavior, creating consumerist attitudes, which are precisely those feed the economic cycle continues to be based on including this practice from product design, because increased consumption and production. Therefore, this fact increases profits for the manufacturer. Although, for some people suppose a wide margin of profitability, there are other components do not have such luck; for example, third World countries have been filled with e-waste and the environment, in general, and resources available today which are not unlimited, and who are seriously affected by the inclusion of this practice. To close this analysis, we will review a few techniques used in some products most widely used today, and the conclusions that have been made after analyzing all these points of the topic.