941 resultados para Characteristic Initial Value Problem
Resumo:
The planar and axisymmetric variable-density flows induced in a quiescent gas by a concentrated source of momentum that is simultaneously either a source or a sink of energy are investigated for application to the description of the velocity and temperature far fields in laminar gaseous jets with either large or small values of the initial jet-to-ambient temperature ratio. The source fluxes of momentum and heat are used to construct the characteristic scales of velocity and length in the region where the density differences are of the order of the ambient density, which is slender for the large values of the Reynolds number considered herein. The problem reduces to the integration of the dimensionless boundary-layer conservation equations, giving a solution that depends on the gas transport properties but is otherwise free of parameters. The boundary conditions at the jet exit for integration are obtained by analysing the self-similar flow that appears near the heat source in planar and axisymmetric configurations and also near the heat sink in the planar case. Numerical integrations of the boundary-layer equations with these conditions give solutions that describe accurately the velocity and temperature fields of very hot planar and round jets and also of very cold plane jets in the far field region where the density and temperature differences are comparable to the ambient values. Simple scaling arguments indicate that the point source description does not apply, however, to cold round jets, whose far field region is not large compared with the jet development region, as verified by numerical integrations
Resumo:
Comúnmente la Arquitectura se manifiesta en los edificios como un hecho de la realidad que tiene siempre carácter contemporáneo y ése debe ser el valor supremo de un arte que no distingue entre antiguo y moderno, por afectar al presente y ser contemporáneo como experiencia. Los objetos se insertan irremediablemente en su medio e incluso llegan a definirlo en ocasiones: así, arquitectura y paisaje, aparecerán a veces confundidos con diferencias difíciles de determinar. El término “paisaje” es relativamente moderno y se deriva de ciertas representaciones gráficas o pictóricas producidas en Occidente en época algo posterior al Renacimiento. No obstante, el hecho de que una palabra se pueda escribir o se cite no quiere decir que la realidad a la que responde no pueda existir, pues lo escrito es solamente un medio de expresión, y es obvio que existen otros quizá más antiguos y de idéntica importancia, pues la propia escritura no es más que el reflejo de un fenómeno que ya se ha producido con anterioridad. Parece así que el testimonio de la realidad viene dado por distintos contextos en lo que suele llamarse “cultura” de modo que las culturas pueden tener aspectos de gran interés mediante diferentes sistemas de expresión variados sin que eso tenga que pasar forzosamente por el filtro de un alfabeto y una escritura. A tenor de los primeros descubrimientos, parece que la cuestión de escribir tuvo originalmente un carácter de constatación de apunte contable y tampoco se puede establecer con certeza si algunos utilizaron la escritura como el so-porte adecuado para referir mitos o historias, pues la Arqueología no ha proporcionado sino testimonios fragmentarios; de lo que si está repleta sin duda la historia es de apuntes contables. Otra cuestión que suscita dudas es la propia definición de escritura, pues parece que los más antiguos modos de expresión escrita se reducen a pictogramas que resultan aún indescifrables. Lenguas y toponimia son también herramientas muy útiles para bucear en el pasado, pero aún así persisten dudas en las escrituras que pro-vienen de las representaciones primordiales: la propia escritura en sus orígenes parece alimentarse de las propias intuiciones inmediatas de la representación, algo que evolucionaría representando esa realidad urgente e inmediata del control o el abastecimiento que luego se convertirían en los fragmentos de texto que han podido conservarse. Es notorio, sin embargo, que ese conjunto enorme de convenios gráficos estaba sujeto a la palabra y la desaparición de las culturas determinó también la desaparición consecuente de sus lenguas, y esos signos - fueran o no escritura - han pasado definitivamente a las zonas oscuras del conocimiento. Escribir supone también disponer de capacidad de abstracción gráfica que diferencie la palabra y la cosa, y es posible que la razón que llevara a ese descubrimiento fuera simplemente el de una economía de signos, pues escritura y lenguaje son limitados por definición, mientras que las cosas del mundo son innumerables: ningún idioma contiene todas las palabras para describir todo lo que puede aparecer. Aparentemente, ese el motivo por el cual existe un localismo – un término específico que refiere algo que existe en un lugar y no en otros - en lo que se refiere a dar el nombre a la cosa y también fuente de paradigma entre los pueblos que se consideran primitivos y los que se consideran civilizados. Debe tenerse en cuenta también que esa transposición se da en ambos sentidos, de modo que las culturas más aisladas también incorporan conceptos que carecen de una explicación racional consistente. Las mitologías son así eternas, pues sirven para explicar realidades que carecen de un entendimiento alcanzable y está también bastante claro que los lenguajes resultan ser un enigma, como realidad autónoma que queda en-cerrada y se explica en sí misma. Parece también que los primeros en escribir las consonantes aisladas fueron los pueblos semíticos occidentales de las orillas del Mediterráneo, pueblos que crearon un alfabeto silábico que llegó a ser utilizado incluso por los tartesios en el sur de la península ibérica como el primer alfabeto de toda Europa occidental. Resulta patente que el término “paisaje” se ha nutrido siempre de representaciones, bien escritas o artísticas, pero queda también claro que esas representaciones se suponen derivadas de la creencia en una idea de paisaje como algo que se ve representado en sí mismo, es decir, como la imagen de una realidad externa situada fuera del individuo. Eso es un hecho trascendente, pues el paisaje requiere lejanía de la cosa, de modo que el actor – aún sabiéndose inserto en su paisaje – es incapaz de percibirlo desde dentro. En el paisaje ocurre igual que en un teatro o en una representación: los actores son conscientes de su papel y su posible cometido, pero no son los que realmente pueden disfrutar de la eficacia o de la propia presencia de la obra, pues forman parte de ella. La idea de paisaje proviene de una lectura externa a la de los propios protagonistas del drama, de modo que si quieren ser un crítico del paisaje se debe abandonar la representación para mirar el espectáculo desde una distancia adecuada, al fin y a cabo externa. De ese modo, aparece la primera constatación del hecho del paisaje como una realidad construida por objetos y personajes, pero, sobre todo, es una realidad construida por miradas. Llama también la atención otorgada en las lecturas de los especialistas hacia esa referencia externa - artística si se quiere - sobre el término “paisaje”, de modo que la bibliografía no especializada sobre el particular siempre acaba en tratados de pintura o poesía. Parece sin embargo que el hombre y sus paisajes son realidades indisolubles desde la propia aparición de la especie, de modo que llevar la cuestión hacia términos exclusivamente esteticistas parece una posición parcial. Hombre y medio han formado siempre una sola unidad, aunque esa unidad se haya convertido en determinados casos en sinónimo de depredación y destrozo. Sin embargo, esa destrucción crea igualmente un paisaje como desolación que es resultado del propio quehacer del hombre: elementos que también poseen un contenido sustancial de memoria en los paisajes industriales como un momento de la Historia previo a la automatización y a la globalización de la vida actuales. Quizá el concepto más interesante desde el punto de vista teórico sea precisamente el de esa cualidad del paisaje como mirada, algo externo producido por el contemplador en un momento ajeno a la pertenencia, una mirada que no es tan sólo estética sino comprensiva, gozosa, activa o analítica - pues existen tantas maneras de mirar como sujetos - sin que pueda definirse con precisión esa contemplación más que en términos que alcanzan la propia individualidad. En términos poéticos, también podría establecerse como ese conjunto de miradas individuales crean también una estructura que hace que ese paisaje se valore y se comprenda, de modo que desde ese punto de vista ese paisaje supone una creación colectiva. Con respeto o como depredador, el hombre se ha instalado en su medio, y al hacerlo, ha dejado huellas dentro del propio paisaje que hacen que tome una determinada significación. Naturalmente, existe una teoría que distingue entre “país” y “paisaje”, asumiendo para el primero la noción exclusiva de territorio en la cual el hombre no tiene papel estético alguno. He intentado muchas veces comprender esa posición, sin acabar de entender el planteamiento que la sustenta: parece que la visión de la cosa estará siempre humanizada, aún en las zonas “vírgenes” o intactas, pues la propia visión hace que el objeto se modifique en su propia unidad perceptiva, creando una curiosa indeterminación que lleva a los conocidos equívocos entre imagen real y representación. Efectivamente, la visión de la cosa requiere de una cultura y unos medios que la informan, de modo que un texto, una pintura, una descripción o una fotografía quedarán ya humanizadas por el propio hecho de ser informadas, pues ello otorga una forma a priori. De ese modo, el paisaje figura inscrito en una función que establece tanto aspectos de un paisaje posible como aspectos del paisaje descrito y solamente podrá hablarse sobre la potencialidad del estado final de ese paisaje y nada del propio paisaje en sí, mientras ese paisaje no quede humanizado por el propio observador. Esta cuestión obliga a elegir una definición de paisaje alejada de presupuestos esteticistas para acercarla a los puramente culturales, de modo que no existe otra vía para la investigación que contemplar esa realidad física en función de las coordenadas del hombre que la habita, dotada del contenido correspondiente a esa revelación. Lejos de las posiciones de la geomorfología, el término “paisaje” implicará así unas condiciones determinadas de contemplación por parte de un sujeto por el cual el espectáculo queda humanizado en dicho acto.Cabe pensar también si no es cierto que todos los paisajes requieren de esa condición humanizada, pues aunque no estén habitados están siempre ocupados por esa mirada que los habita, al igual que un escenario sin público que carece de vigencia. A partir de ahí se sitúan las coordenadas en donde este trabajo configura la presencia de la arquitectura en la definición del paisaje, una premisa que parece ya venir otorgada desde el principio, pues esa misma mirada del espectador ya está dotando de un sentido de orden y jerarquía a la contemplación, unas cualidades que están en la base de toda actividad arquitectónica, De hecho la propia definición de “monumento natural” - en si misma una contradicción – expresa ese conflicto, dotado de un fenómeno de admiración y solape entre cultura y naturaleza, como conceptos enfrentados desde su origen. La conclusión sobre el dilema propuesta en la tesis no ha sido otra que suponer que esas dos realidades que son la cultura y el paisaje se han solapado desde el principio de los tiempos del hombre formando un binomio indeslindable. Se ha dicho antes que el proceso de invasión del territorio por el hombre es significativo, y esa significación es la que origina una creación autónoma que se aísla como un concepto abstracto de los entes naturales, tomándolos como material de trabajo, y estableciendo una oposición conceptual en la realidad perforada e interpretada por el hombre que viene a oponerse a lo que supone la caja cerrada e ignota del enigma del mundo. La cuestión de la significación del hombre sobre el territorio se subsume en la creación de unos productos que permanecen y que son testimonio de la propia cultura, de forma que la cantidad de rastro que el hombre deja sobre el territorio contribuye en mayor medida a la cualificación del paisaje como concepto. Eso lleva a establecer que cualquier paisaje - por el mero hecho de serlo y ser definido así – es ya cultural, puesto que está configurado por los productos de la cultura. Las palabras que puedan quedar encerradas en las piedras de los monumentos o de las ciudades son las de los hombres que trabajaron allí, y también las de los que las habitaron: más aún, el propio sentido del paisaje y su conservación vienen determinados por la presencia del hombre como único interprete de conceptos como ecología o conservación, algo que se pone de manifiesto también en la espantosa devastación que producen los fenómenos propios de la naturaleza. La historia natural, al igual que la vida, están conformadas por éxito y devastación, sin que uno y otra tengan especial preferencia, pues la preferencia se alimenta de otra clase de conceptos. La cuestión de atribuir valores morales al mundo natural es algo muy antiguo, y quizá sea la fuente o el manantial de las primeras religiones, una cuestión que se une a la indefectible noción de mortalidad que define la existencia del hombre frente a la inmanencia de la naturaleza. Esa propia naturaleza está dotada intuitivamente de un carácter “inocente” suponiendo que la inocencia es lo opuesto a la sabiduría. La cuestión es bien otra, ya que la naturaleza no posee ni siquiera algo que pueda definirse como “carácter”, en el sentido personal del término. La cuestión no cae, evidentemente, del lado de las definiciones o de las cualidades, sino del propio análisis de la realidad que el hombre va construyendo, destruyendo, embelleciendo o perjudicando para definir el territorio que habita, interponiendo a su manera recursos, instalaciones y en definitiva todos los testimonios posibles como principal manifestación de su esencia. Entre los artefactos que el hombre produce, uno de los más persistentes y más conspicuamente descritos es el de la arquitectura - entendida aquí en un sentido amplio - es decir, como el conjunto de modificaciones del espacio y del territorio. El espacio se puede modificar de muchos modos, pero en cualquiera de los casos constituye una de las huellas más características que el hombre establece como manifestación física de su propio ser discursivo. También la arquitectura ha demostrado ser una de los fenómenos más persistentes, incluso más que la propia lengua que la origina en su discurso primero antes que pueda ac-cederse a una idea sobre la conformación del material. Es paradigmático que el episodio descrito sobre la Torre de Babel en la Biblia la cuestión de la ambición de los hombres frente a Dios, representada precisamente en una arquitectura, se asimile a la discusión sobre el lenguaje primordial. La cuestión no es baladí, pues el fenómeno de la creación es algo que se concede exclusivamente a los dioses, que por esa razón habitan los territorios a los que los hombres no pueden llegar; territorios de albergue en los que las mitologías sitúan a dioses y demonios, con amplios espacios intermedios donde situar a las divinidades menores, héroes o seres híbridos en los que la coyunda de los dioses con los humanos produce sujetos que alivian el sentido de la mortalidad. El comentario del Génesis también concede un valor a la técnica, al mito de Prometeo y al fuego como creador de excelencia. Frente al progreso prometeico, se postula el valor divino, y la única forma posible de paliar ese progreso es la confusión del lenguaje, pues eso será lo que produzca la dispersión y la falta de acuerdo. La cuestión también puede explicar esa afición tan común por lo canónico en arquitectura que se mantiene a lo largo de grandes períodos, al igual que una gran máquina de inercia. Parece que los conceptos primordiales de la arquitectura basados en elementos simples como el hito, el dintel, lo recto y lo curvo, la rampa o la escalera, y el uso distinto o cualificado que se otorga a la piedra, el ladrillo, la madera o el metal como componentes primordiales del material arquitectónico se haya mantenido a lo largo de muchos milenios sin apenas cambios, al igual que ocurre con las costumbres alimenticias que siguen una progresión ascendente a través de lo crudo, lo asado y lo cocido, hasta obtener distintos grados de refina-miento, pero que siempre se sustentan en la sensación primigenia. El descubrimiento de la arquitectura proviene de un cierto manejo de las dimensiones, y consiguientemente de la geometría. Pero la geometría es cosa abstracta al igual que el lenguaje, de modo que para poder realizar arquitectura se hace necesaria esa capacidad de abstracción primera que luego permite la realización de un dispositivo. La realidad y su número exhiben un divorcio, al igual que las cosas y sus nombres exhiben el suyo, y el análisis numérico es solamente una forma de ver la realidad, una forma rigurosa y exacta – aunque parcial - que solamente representa el modelo ideal al cual la realidad se aproxima en mayor o menor medida: esa aproximación matemática hace que el universo pueda condensarse parcialmente en números, al igual que la realidad puede condensarse en nombres, pero ni el nombre ni el número reflejarán el mundo en toda su complejidad. El número es quizá solamente un medio de describir las cosas, como lo serían las formas puras que responden a una configuración matemática que pueda producirse en teoría en cualquier parte del Universo. Sin embargo, para el ejercicio de la arquitectura es preciso acudir a esa simplificación que exige la visión abstracta del plano como una sección cierta realidad como un corte abstracto del elemento considerado. Con su traza o sin ella, con la propia expresión matemática que lo describa o sin precisarla, esa intuición del plano como elemento generador del espacio es anterior a aquella expresión, al igual que el habla fue anterior a la escritura, pues solamente se produjo a través de ella y como refuerzo y sustituto de la memoria. Existen así abstracciones de la memoria que aparecen derivadas de los signos de la naturaleza aparecidos solamente de forma eventual y fragmentaría: así ocurre con la línea, el cuadrado y el círculo, formas iniciales y abstractas sonsacadas en cierta medida de la observación que dan origen a los primeros signos de la arquitectura primordial, de modo que cuadrados y círculos, elevados a prismas y superficies esféricas o esferoides aparecen en tumbas y edificios elementales de los primeros tiempos mediante una geometría primordial que se superpone al paisaje en el que se inserta. Es cierto también que esas formas se encuentran ya aproximadas en objetos que se encuentran en el medio físico, líneas en extremidades, ramas y miembros; ángulos rectos en algunos cristales que se observan mediante corte o formas circulares en astros y cráteres, pero esa realidad solamente presenta su forma aproximada y no su abstracción pura, de igual modo que el jeroglífico propondrá al ave rapaz para representar la idea de vigilancia y la buena vista, o incluso que la imagen del propio ojo sustituya la idea del Dios que todo lo ve en las culturas anti-guas. La elección fue resuelta, después de muchos intentos y aproximaciones, con la adopción del ángulo recto como un artificio fácil para el replanteo a través del triángulo sagrado 3:4:5 que ya se utilizó para construir las pirámides de Egipto, y que dio origen también a la mayor parte del urbanismo antiguo, coexistiendo con la forma circular primordial en el tipo denominado “tholo”. Aquella trama cuadrangular era uno de los patrones de relleno del espacio más comunes y compactos, y esa fue probablemente la razón por la que en tiempos muy posteriores fuera adoptada como una forma eficaz permanente de organización frente al desorden topológico que procura el conjunto de asociación de plantas circulares. Otra cuestión paradigmática es que esos conceptos primordiales e ignotos - que convergen en el mismo origen de las civilizaciones - se conviertan luego en algo canónico, a través del uso. El canon en sí mismo es algo ideal, como una norma aplicable a objetos de una realidad que ha sido creada solamente como indicio del ca-non, algo abstracto que tiene proporciones estrictas que son siempre las mismas y no obedece a criterios racionales: será absurdo sin embargo buscar el canon griego entre los templos de época como algunos lo hicieron, pues los edificios solamente se aproximan a los ejemplos canónicos y por esa razón se habla del “dórico del Partenón” que es diferente del de Egina o del de Paestum, siendo todos ellos evidentemente dóricos. Sin embargo, esa idea resulta útil al tratadista, al teórico de la arquitectura y al historiador, aun-que solamente refleje una vaga idea de lo que sucede más allá del tratado. Otra cuestión es la sutileza de los ejemplos de arquitectura, y del mismo modo que los cuerpos de los seres vivos jamás son simétricos, aunque respondan a un diseño simétrico general derivado de las condiciones de la división celular, los edificios supuestamente canónicos en los que los especialistas se inspiraron para definir los órdenes clásicos no disponen de esa simetría modular exacta, sino que adaptan un modelo general al lugar siempre cambiante del emplazamiento, es decir, se adaptan con habilidad a la vez que configuran el paisaje en el que se insertan. La luz de los distintos intercolumnios del Partenón es ligeramente distinta, aunque guarde un evidente sentido de simetría axial, de manera que aquellos “órdenes” que formaron la Teoría de la Arquitectura no son más que una bella interpretación sectorial de la arquitectura antigua elaborada por los tratadistas del Renacimiento y, posteriormente, por los neoclásicos. Parece, sin embargo, que ese ansia por el canon como claridad de lenguaje es algo consustancial al desarrollo de la arquitectura, una lingua franca que tiende a evitar la dispersión producida entre los mortales por los dioses antiguos, de modo que si no era posible llegar al cielo de los dioses se procuró que el lenguaje de la Tierra fuera al menos inteligible para poder entenderse entre los hombres. Parece que la estructura del poder siempre requirió de un determinado nivel de organización, y también que las instrucciones se entendieran con claridad: parece que en nuestros tiempos esos antiguos cánones se han sustituido por la obediencia a normas abstractas, dictadas por instituciones también algo abstractas y que tienen nombres divertidos compuestos por siglas, aunque no se conozca bien su virtud. El canon actual está constituido por “normas” que dejan tranquilos a algunos, aunque parece quizá que todo ese entramado formal que sirve como anestesia para el cuerpo social procura también la destrucción de los bosques en formas de montañas ingentes de papel burocrático. Durante muchos siglos las normas fueron otras, en la forma de un canon del cual nadie podía escapar: aún así, mediante la utilización de cánones o sin ellos, la arquitectura prosperó en la civilización desde los primeros refugios cavernarios o los abrigos primigenios y de ese modo fue configurando la realidad, es decir, el paisaje. Como antes se dijo, ese es un viaje de ida y vuelta en el cual ambos se confundían y subsumían: el manejo de las formas y lenguajes de la arquitectura posibilitaría con el tiempo la distinción entre el campo en donde reina el caos y la ciudad, en donde reina teóricamente el orden, creando un divorcio que duraría milenios y que aún persiste. Esa oposición generaría también una forma de paisaje y una serie de usos simbólicos y sagrados de los elementos de la arquitectura - como son puertas y murallas - que se han mantenido conceptualmente aunque hoy las ciudades ya no posean murallas físicas, ni puertas que se cierran con la llegada de la noche. En ese sentido, la arquitectura ha podido definir el paisaje, entendiendo la arquitectura no solamente como los edificios en sí, sino como el hecho de la manifestación del hombre sobre el territorio, de modo que no podrá hablarse de paisaje sin su arquitectura, del mismo modo que no puede hablarse de paisaje sin hombres. Por esta razón, la Tesis habla sobre Arquitectura y Paisaje, pero más particularmente sobre el hecho de la arquitectura en la definición del paisaje, es decir, de como los hechos arquitectónicos van a determinar o no la cualidad y la calificación de un paisaje. Deberá partirse en primer lugar de una definición de lo que se entiende y se ha entendido comúnmente por paisaje: igualmente, y habida cuenta del contexto en el que sitúa el propio trabajo de tesis, la cuestión solamente se circunscribirá a lo que se entiende como cultura occidental, pues el desarrollo de la civilización presenta siempre un color local que hace que el análisis de un fenómeno de esta envergadura tenga distintas connotaciones en las distintas áreas de civilización. De igual modo, y habida cuenta también que el paisaje se construye a través de todas las manifestaciones culturales, se hará a veces necesario indagar en otras disciplinas no arquitectónicas para comprender el alcance de algunos casos en los cuales los restos arquitectónicos han desaparecido, o en los que subsisten escasas trazas. Una definición tan amplia de la Arquitectura llevaría a escribir un relato sobre toda la cultura occidental y por ese motivo solamente se han esbozado ideas sobre la aparición de esos signos sobre el paisaje basados en elementos antiguos y primigenios que se repiten con insistencia y van dando lugar al variado repertorio de la arquitectura occidental cómo conformación de ideas sobre el me-dio y sobre el mundo que se percibe y se habita. ABSTRACT About Architecture in defining Landscape. Abstract Architecture is commonly manifested in buildings as a fact of reality that has always a contemporary character and that should be the highest value of an art that does not distinguish between ancient and modern, to affect the present and be contemporary as experience. Objects are inserted irremediably in their midst and even sometimes come to define it: thus, architecture and landscape, appear sometimes confused with differences difficult to determine. However, the term "landscape" is relatively modern and is derived from certain graphical or pictorial representations produced in the West in some subsequent period to the Renaissance. The fact that a word can be written or quoting does not mean that the reality that can not be answered, because the writing is only a mean of expression, and it is obvious that there are other and perhaps older equally important, because the writing itself is nothing more than the reflection of a phenomenon that has occurred before. It thus appears that the testimony of reality is given by different contexts in what is called "culture", so that cultures can have aspects of great interest by many different expression systems without this necessarily have to pass through the filter of alphabet and writing. Under the initial findings, it appears that the question of writing originally had a character and finding accounting entries, and it can not be established with certainty whether some used writing as the support appropriate to refer myths or stories, because archaeology has provided only fragmentary evidence. Another issue that raises questions is what can properly be defined as writing, it seems that the oldest modes are reduced to writing pictograms are still indecipherable. Languages and place names are also very useful tools for diving in the past, but still questions remain in the scriptures that come from the primordial representations: either it is very well defined what the own writing in its origins: the beginnings seem to feed on immediate intuitions of representation, which would evolve representing reality that urgent and immediate control or supply which is then inherited into fragments. It is noteworthy, however, that this huge set of graphics agreements was subject to the word and the disappearance of cultures determined also the consequent disappearance of their languages, and those signs - whether or not they write - have passed definitively to dark areas of knowledge. Writings supposed also the capacity of abstraction graph differentiates the word and the thing, and it is possible that the reason to carry this discovery was simply that of an economy of signs, for writing and language are limited by definition, while the things of the world are innumerable: no language contains all words to describe all that may appear. Apparently, that's why there is a localism - a specific term that refers to something that exists in one place and not in others - in regards to name the thing and also the source of paradigm among peoples are considered primitive and civilized. It should be noted also that transposition occurs in both directions, so that the most isolated cultures also incorporate concepts that lack a consistent rational explanation. Mythologies are eternal and therefore serve to explain realities that lack an understanding achievable and also pretty clear that languages happen to be an enigma, as an autonomous reality that is enclosed and explains itself. It also seems that the first to write consonants were isolated western Semitic peoples from the shores of the Mediterranean, peoples who created a syllabic alphabet came to be used even by tartesios in southern Iberia as the first alphabet in Western Europe. It is clear that the term "landscape" has always nurtured representations, either written or artis-tic, but it is also clear that these representations are assumed arising from belief in an idea of landscape as something that is represented in itself, as the image of a reality external located outside the individual. That is an important fact because the landscape requires remoteness of the thing, so that the actor - even knowing insert in landscape - is unable to perceive from within. The landscape is just as in a theatre or a performance: the actors are aware of their role and their possible role, but they are not the ones who can really enjoy the efficiency or the presence of the work itself, as part of it. The idea comes from an external landscape reading the principles of players in the drama, so if you want to be a critic of the landscape should leave the actual representation to watch the spectacle from a safe distance, finally external. Thus, the first finding of fact of the landscape appears as a reality constructed by objects and characters, but above all, a reality constructed by looks. Also noteworthy given the readings of specialists to the external reference - art if it could be - on the term "landscape", so no specialized literature on the subject always ends in treatises on painting or poetry. It seems however that the man and his landscapes are inseparable realities from the very onset of the species, so bring the issue into terms exclusively aesthetics seems a partial position. Man and environment have always been a single unit, but that unit has become synonymous with certain cases predation and destruction. Nevertheless, this destruction also creates a landscape as desolation that results from proper task of man elements that also have substantial contents of memory in industrial landscapes as a time of pre-automation history and globalization of current life. Perhaps the most interesting from a theoretical point of view is precisely that quality of landscape as something external produced by the viewer in a strange time of membership, a look that is not only aesthetic but sympathetic, joyful, active concept or analytical - because there are so many ways to look as subjects - it may not be precisely defined that contemplation rather than in terms that reach one's individuality. In poetic terms, it could also be set as the set of individual gazes also create a structure that makes this landscape is valued and understood, so from that point of view that landscape is a collective creation. With respect or as a predator, man has settled in his environment and in doing so has left traces in the landscape itself that make take a certain significance. Naturally, there is a theory that distinguishes what is "home" and what is "nature" providing for the first notion of the exclusive territory in which man has no aesthetic role. I tried many times to understand this position, without understanding the approach that supports: it seems that the vision of the thing is always humane, even in the "virgin" or untouched areas, as the vision itself makes the object modified in its own perceptual unit, creating a curious indeterminacy leading to the known misunderstandings between real image and representation. Indeed, the vision of the thing requires a culture and means that the report, so that a text, a picture, a description or photograph will be humanized by the very fact of being informed, as this provides a way a priori. Thus, the landscape provides a function that sets both aspects of a potential landscape as described aspects of the landscape and can only talk about the potential of the final state of the landscape, while the landscape remains humanized by the observer himself. This question forces to choose a definition of remote landscape budgets purely cultural, so there is another way for research to contemplate that physical reality in terms of the coordinates of the man who inhabits gifted content corresponding to that revelation. Far from the positions of the geomorphology, the term "landscape" and involve a certain condition by contemplation of a subject for which the show is humanized in the act. It should also consider, in the light of the above, if it is not true that all landscapes require that humanized condition, because although they are not inhabited they are always occupied by the look that dwells, like a stage without audience produces no consistent effect. From there the coordinates where this work sets the presence of architecture in defining landscape, a premise which seems to come from the beginning given lie, because that same look is already giving the viewer a sense of order and hierarchy to contemplation, qualities that are at the basis of all architectural activity, in fact the very definition of "natural monument" - in itself a contradiction - expresses this conflict, which has a phenomenon of admiration and overlap between culture and nature as concepts faced since its inception. The conclusion on the dilemma proposed in the thesis has not been another to assume that these two realities are the culture and landscape have overlapped since the beginning of man time forming a pair. It has been said before that the process of invasion of the territory by man is significant, and that meaning is the originating autonomous creation that is isolated as an abstract concept of nature, taking them as working material, and establishing a conceptual opposition in reality and punched by the man who comes to oppose representing the closed and unknown to the enigma of the world interpreted. The question of the significance of the man on the land is subsumed in the creation of products that remain and are testimony of their own culture, so that the trace amount that the man leaves the territory contributes most to the qualification landscape as a concept. That brought into any landscape - by the mere fact of being and being well defined - is already cultural, as it is configured by culture products. The words that can be locked in the stones of the monuments or cities are those of the men who worked there, and also of those who inhabited: even more, the sense of the landscape itself and its conservation are determined by the presence of man as the sole interpreter of concepts such as ecology or conservation, something which becomes manifest also in the awful devastation that produce the phenomena of nature. The natural history, like life, are shaped by success and devastation without special preference, the preference is used for feeding on other kinds of concepts. The question of moral values attributed to the natural world is very ancient, and may be the source or the source of the first religions, an issue that joins the unfailing notion of mortality that defines the existence of man against immanence of nature. That nature is endowed intuitively an "innocent" character assuming that innocence is the opposite of wisdom. The other issue is well, since nature does not even have what is defined as "character" because that is something that serves to qualify beings, but not objects. The question does not fall clearly on the side of the definitions or qualities, but from the analysis of the reality that man is building, destroying or damaging to define the territory, interposing his way resources facilities and possible witness as the main manifestation of its essence. Among the artifacts that man produces one of the most persistent and most conspicuously disclosed is architecture as a way of modification of space and territory. The space can be modified in many ways, but in either case is one of the most characteristic traces that man establishes as a physical manifestation of his own discourse being. Architecture has also proven to be one of the most persistent phenomena, even more than their own language that originates in his speech first. The paradigm wrote in the episode described on the Tower of Babel in the Bible shows the question of ambition of men before God - represented precisely in architecture - is assimilated to the discussion about the primary language. The issue is not trivial, since the phenomenon of creation is something that is granted exclusively to the gods, for that reason inhabit the territories to which men can not reach; territories where the hostel located mythologies gods and demons, with large gaps where to place the minor deities, heroes or hybrid beings where the yoke of the gods with human subjects produces relieving sense of mortality. The commentary on Genesis also gives a value to the art, the myth of Prometheus and fire as creator of excellence. In front of promethean progress, divine value is postulated, and the only possible way to alleviate this progress is the confusion of language, because that is what will produce the dispersion and lack of agreement. The issue may also explain such a common passion for the canonical architecture maintained throughout long periods, like a great machine inertia. It seems that the main concepts of architecture based on simple elements like milestone, lintels, straight and curved stairs or ramps, or other qualified and used are granted to the stone, brick, wood or metal as the primary components of the architectural material maintained throughout many millennia are almost unchanged, as is the case with the eating habits that follow a progression through the raw, the cooked and roasted or fried until obtain different degrees of refinement, but always are based on the primal feeling. The discovery of the architecture comes from a management dimensions, and consequently the geometry. But the geometry is abstract thing like the language so that to make architecture that first absorption capacity which then allows the realization of a device is necessary. Reality and its number exhibit a divorce, like things and their names displayed his; numerical analysis is just one way of seeing reality, rigorous and accurate - though partial - only represents the ideal model to which reality is coming to a greater or lesser extent: the mathematical approach makes the universe can condense on numbers, like reality may condense on names, but neither the name nor the number will reflect in all its complexity. The number is only a means of describing things, such as the pure forms that match setup a mathematical theory that occurs anywhere in the universe. However, for the practice of architecture is necessary to go to the simplification that requires abstract view of a section plane of reality, as an abstract element considered cutting. With its trace or not, with the mathematical expression that describes what or without clarify, this intuition of the plane as a generator of space predates his own expression, like speech preceded the writing, which only occurred through it and as reinforcement and replacement of memory. There are abstractions of memory displayed on the signs of nature only on casual and fragmentary, such as line, square and circle: those initials and abstract forms located in abstraction give rise to the first signs of primordial architecture, so that squares and circles, lifting two prisms and spheroids or spherical surfaces appear in tombs and elementary buildings the first few times, and that primordial geometry overlaps the landscape in which it is inserted. It is also true that these forms are approximate objects found in the physical environment, limb lines, branches and limbs; straight in some crystals angles observed by cutting or circular in stars and craters forms, but only the approximate shape and not its abstraction, just as the hieroglyphic of a falcon to represent the idea of surveillance presents the good view, or even the image of the eye itself replace the idea of the all-seeing God. The election was resolved, after many attempts and approaches, with the adoption of the right angle as an easy trick for stake through the sacred triangle 3:4:5 already used to build the pyramids of Egypt, and also gave rise to most of the old urbanism tend coexist with the primary circular form type called "Tholo". That frame homer was one of the fill patterns of common and compact space, and that was probably the reason why in much later times was adopted as a permanent effective form of organization against the topological disorder that seeks the set of association circular plants. Another issue is that these paradigmatic and unknown primary concepts - that converge at the origin of civilizations - then become something canon, through use. The canon itself is something ideal, as a rule for objects of a reality that has been created only as an indication of the ca-non, something abstract that has strict proportions are always the same and not due to rational criteria: be absurd however seek the Greek canon among the temples of time as some did, because the buildings only approximate the canonical examples and for that reason we speak of "doric from Parthenon" which is different from Aegina or Paestum, being all clearly doric. However, this idea is useful to scholar, the architectural theorist and historian, although it reflects only a vague idea of what happens beyond the book. Another issue is the subtlety of the examples of architecture, just as the bodies of living beings are never symmetrical, even if they involve a general symmetrical design derived from the conditions of cell division, the supposedly canonical buildings where specialists were inspired to define the classical orders do not have that exact modular symmetry, but a general model adapted to the ever changing location of the site shaping the landscape in which they are inserted. The light of the various bays of the Parthenon is slightly different, but keep a clear sense of axial symmetry, so that those "orders" that formed the theory of architecture are just a beautiful sectoral interpretation of ancient architecture developed by writers of the Renaissance and later by neoclassical. It seems, however, that craving for clarity of language canon as is inherent to the development of architecture, a lingua franca that tends to avoid scattering among mortals by the ancient gods, so if it was not possible the heaven of the gods sought the language of the Earth was at least intelligible to be understood. Power structure has always required a certain level of organization, and the instructions are clearly understood: it seems that in our times these ancient canons were replaced by obedience to abstract rules, issued by institutions also somewhat abstract and have funny names made up acronym, although not well known virtue. The current canon consists of "rules" that leave some quiet, although it seems that maybe all that interweaves-do formally serving as anaesthesia for the social body also seeks the destruction of forests in forms of huge mountains of bureaucratic paper. For many centuries were other rules, in the form of a canon which no one could escape: still using royalties or without them, civilization flourished in architecture from the earliest cave shelters or shelters and the primordial reality was setting mode in landscape. As noted above, this is a return trip in which both confused and subsumed: the management of forms and languages of architecture over time would allow the distinction between the field where chaos reigns and city, where order reigns theoretically creating a divorce that lasted millennia and still persists. This opposition also generate a form of landscape and a series of symbolic and sacred uses of architectural elements - such as doors and walls - which have remained conceptually although today the cities no longer having physical walls or doors close during the night. In this sense, the architecture could define the landscape, architecture is not only understood as the buildings themselves, but the fact of the manifestation of the man on the premises, so you can not speak without his landscape architecture, the same so we can not speak of landscape without men. For this reason, the thesis discusses architecture and landscape, but more particularly to the fact of architecture in defining landscape, as the facts of architectural or not will determine the quality and qualification of a landscape. One should begin first a definition of what is understood and has been commonly understood by landscape: equally, and given the context in which it places the own thesis work, the issue only be limited to what is understood as western culture, for the development of civilization always has a local colour that makes the analysis of a phenomenon of this magnitude have different connotations in different areas of civilization. Similarly, and given also that the landscape is constructed through all cultural manifestations, will sometimes necessary to investigate other non-architectural disciplines to understand the scope of some cases in which the architectural remains have disappeared, or the remaining few traces. Such a broad definition of architecture take to write a story about all of Western culture and for this reason only been sketched ideas about the appearance of these signs on the landscape based on ancient and primitive elements are repeated insistently and leading the varied repertoire of Western architecture shaping ideas about how the media and the world is perceived and inhabited.
Resumo:
La presente tesis es un estudio analítico y numérico del electrospray. En la configuración más sencilla, un caudal constante del líquido a atomizar, que debe tener una cierta conductividad eléctrica, se inyecta en un medio dieléctrico (un gas u otro líquido inmiscible con el primero) a través de un tubo capilar metálico. Entre este tubo y un electrodo lejano se aplica un voltaje continuo que origina un campo eléctrico en el líquido conductor y en el espacio que lo rodea. El campo eléctrico induce una corriente eléctrica en el líquido, que acumula carga en su superficie, y da lugar a un esfuerzo eléctrico sobre la superficie, que tiende a alargarla en la dirección del campo eléctrico. El líquido forma un menisco en el extremo del tubo capilar cuando el campo eléctrico es suficientemente intenso y el caudal suficientemente pequeño. Las variaciones de presión y los esfuerzos viscosos asociados al movimiento del líquido son despreciables en la mayor parte de este menisco, siendo dominantes los esfuerzos eléctrico y de tensión superficial que actúan sobre la superficie del líquido. En el modo de funcionamiento llamado de conochorro, el balance de estos esfuerzos hace que el menisco adopte una forma cónica (el cono de Taylor) en una región intermedia entre el extremo del tubo y la punta del menisco. La velocidad del líquido aumenta al acercarse al vértice del cono, lo cual propicia que las variaciones de la presión en el líquido generadas por la inercia o por la viscosidad entren en juego, desequilibrando el balance de esfuerzos mencionado antes. Como consecuencia, del vértice del cono sale un delgado chorro de líquido, que transporta la carga eléctrica que se acumula en la superficie. La acción del campo eléctrico tangente a la superficie sobre esta carga origina una tracción eléctrica que tiende a alargar el chorro. Esta tracción no es relevante en el menisco, donde el campo eléctrico tangente a la superficie es muy pequeño, pero se hace importante en el chorro, donde es la causa del movimiento del líquido. Lejos del cono, el chorro puede o bien desarrollar una inestabilidad asimétrica que lo transforma en una espiral (whipping) o bien romperse en un spray de gotas prácticamente monodispersas cargadas eléctricamente. La corriente eléctrica transportada por el líquido es la suma de la corriente de conducción en el interior del líquido y la corriente debida a la convección de la carga acumulada en su superficie. La primera domina en el menisco y la segunda en el chorro lejano, mientras que las dos son comparables en una región intermedia de transferencia de corriente situada al comienzo del chorro aunque aguas abajo de la región de transición cono-chorro, en la que el menisco deja de ser un cono de Taylor. Para un campo exterior dado, la acumulación de carga eléctrica en la superficie del líquido reduce el campo eléctrico en el interior del mismo, que llega a anularse cuando la carga alcanza un estado final de equilibrio. El tiempo característico de este proceso es el tiempo de relajación dieléctrica, que es una propiedad del líquido. Cuando el tiempo de residencia del líquido en la región de transición cono-chorro (o en otra región del campo fluido) es grande frente al tiempo de relajación dieléctrica, la carga superficial sigue una sucesión de estados de equilibrio y apantalla al líquido del campo exterior. Cuando esta condición deja de cumplirse, aparecen efectos de relajación de carga, que se traducen en que el campo exterior penetra en el líquido, a no ser que su constante dieléctrica sea muy alta, en cuyo caso el campo inducido por la carga de polarización evita la entrada del campo exterior en el menisco y en una cierta región del chorro. La carga eléctrica en equilibrio en la superficie de un menisco cónico intensifica el campo eléctrico y determina su variación espacial hasta distancias aguas abajo del menisco del orden de su tamaño. Este campo, calculado por Taylor, es independiente del voltaje aplicado, por lo que las condiciones locales del flujo y el valor de la corriente eléctrica son también independientes del voltaje en tanto los tamaños de las regiones que determinan estas propiedades sean pequeños frente al tamaño del menisco. Los resultados experimentales publicados en la literatura muestran que existe un caudal mínimo para el que el modo cono-chorro que acabamos de describir deja de existir. El valor medio y la desviación típica de la distribución de tamaños de las gotas generadas por un electrospray son mínimos cuando se opera cerca del caudal mínimo. A pesar de que los mecanismos responsables del caudal mínimo han sido muy estudiados, no hay aún una teoría completa del mismo, si bien su existencia parece estar ligada a la aparición de efectos de relajación de carga en la región de transición cono-chorro. En esta tesis, se presentan estimaciones de orden de magnitud, algunas existentes y otras nuevas, que muestran los balances dominantes responsables de las distintas regiones de la estructura asintótica de la solución en varios casos de interés. Cuando la inercia del líquido juega un papel en la transición cono-chorro, los resultados muestran que la región de transferencia de corriente, donde la mayor parte de la corriente pasa a la superficie, está en el chorro aguas abajo de la región de transición cono-chorro. Los efectos de relajación de carga aparecen de forma simultánea en el chorro y la región de transición cuando el caudal se disminuye hasta valores de un cierto orden. Para caudales aún menores, los efectos de relajación de carga se notan en el menisco, en una región grande comparada con la de transición cono-chorro. Cuando el efecto de las fuerzas de viscosidad es dominante en la región de transición, la región de transferencia de corriente está en el chorro pero muy próxima a la región de transición cono-chorro. Al ir disminuyendo el caudal, los efectos de relajación de carga aparecen progresivamente en el chorro, en la región de transición y por último en el menisco. Cuando el caudal es mucho mayor que el mínimo del modo cono-chorro, el menisco deja de ser cónico. El campo eléctrico debido al voltaje aplicado domina en la región de transferencia de corriente, y tanto la corriente eléctrica como el tamaño de las diferentes regiones del problema pasan a depender del voltaje aplicado. Como resultado de esta dependencia, el plano caudal-voltaje se divide en diferentes regiones que se analizan separadamente. Para caudales suficientemente grandes, la inercia del líquido termina dominando frente a las fuerzas de la viscosidad. Estos resultados teóricos se han validado con simulaciones numéricas. Para ello se ha formulado un modelo simplificado del flujo, el campo eléctrico y el transporte de carga en el menisco y el chorro del electrospray. El movimiento del líquido se supone casi unidireccional y se describe usando la aproximación de Cosserat para un chorro esbelto. Esta aproximación, ampliamente usada en la literatura, permite simular con relativa facilidad múltiples casos y cubrir amplios rangos de valores de los parámetros reteniendo los efectos de la viscosidad y la inercia del líquido. Los campos eléctricos dentro y fuera del liquido están acoplados y se calculan sin simplificación alguna usando un método de elementos de contorno. La solución estacionaria del problema se calcula mediante un método iterativo. Para explorar el espacio de los parámetros, se comienza calculando una solución para valores fijos de las propiedades del líquido, el voltaje aplicado y el caudal. A continuación, se usa un método de continuación que permite delinear la frontera del dominio de existencia del modo cono-chorro, donde el método iterativo deja de converger. Cuando el efecto de la inercia del líquido domina en la región de transición cono-chorro, el caudal mínimo para el cual el método iterativo deja de converger es del orden del valor estimado del caudal para el que comienza a haber efectos de relajación de carga en el chorro y el cono. Aunque las simulaciones no convergen por debajo de dicho caudal, el valor de la corriente eléctrica para valores del caudal ligeramente mayores parece ajustarse a las estimaciones para caudales menores, reflejando un posible cambio en los balances aplicables. Por el contrario, cuando las fuerzas viscosas dominan en la región de transición, se pueden obtener soluciones estacionarias para caudales bastante menores que aquel para el que aparecen efectos de relajación de carga en la región de transición cono-chorro. Los resultados numéricos obtenidos para estos pequeños caudales se ajustan perfectamente a las estimaciones de orden de magnitud que se describen en la memoria. Por último, se incluyen como anexos dos estudios teóricos que han surgido de forma natural durante el desarrollo de la tesis. El primero hace referencia a la singularidad en el campo eléctrico que aparece en la línea de contacto entre el líquido y el tubo capilar en la mayoría de las simulaciones. Primero se estudia en qué situaciones el campo eléctrico tiende a infinito en la línea de contacto. Después, se comprueba que dicha singularidad no supone un fallo en la descripción del problema y que además no afecta a la solución lejos de la línea de contacto. También se analiza si los esfuerzos eléctricos infinitamente grandes a los que da lugar dicha singularidad pueden ser compensados por el resto de esfuerzos que actúan en la superficie del líquido. El segundo estudio busca determinar el tamaño de la región de apantallamiento en un chorro de líquido dieléctrico sin carga superficial. En esta región, el campo exterior es compensado parcialmente por el campo que induce la carga de polarización en la superficie del líquido, de forma que en el interior del líquido el campo eléctrico es mucho menor que en el exterior. Una región como ésta aparece en las estimaciones cuando los efectos de relajación de carga son importantes en la región de transferencia de corriente en el chorro. ABSTRACT This aim of this dissertation is a theoretical and numerical analysis of an electrospray. In its most simple configuration, a constant flow rate of the liquid to be atomized, which has to be an electrical conductor, is injected into a dielectric medium (a gas or another inmiscible fluid) through a metallic capillary tube. A constant voltage is applied between this tube and a distant electrode that produces an electric field in the liquid and the surrounding medium. This electric field induces an electric current in the liquid that accumulates charge at its surface and leads to electric stresses that stretch the surface in the direction of the electric field. A meniscus appears on the end of the capillary tube when the electric field is sufficiently high and the flow rate is small. Pressure variations and viscous stresses due to the motion of the liquid are negligible in most of the meniscus, where normal electric and surface tension stresses acting on the surface are dominant. In the so-called cone-jet mode, the balance of these stresses forces the surface to adopt a conical shape -Taylor cone- in a intermediate region between the end of the tube and the tip of the meniscus. When approaching the cone apex, the velocity of the liquid increases and leads to pressure variations that eventually disturb the balance of surfaces tension and electric stresses. A thin jet emerges then from the tip of the meniscus that transports the charge accumulated at its surface. The electric field tangent to the surface of the jet acts on this charge and continuously stretches the jet. This electric force is negligible in the meniscus, where the component of the electric field tangent to the surface is small, but becomes very important in the jet. Far from the cone, the jet can either develop an asymmetrical instability named “whipping”, whereby the jet winds into a spiral, or break into a spray of small, nearly monodisperse, charged droplets. The electric current transported by the liquid has two components, the conduction current in the bulk of the liquid and the convection current due to the transport of the surface charge by the flow. The first component dominates in the meniscus, the second one in the far jet, and both are comparable in a current transfer region located in the jet downstream of the cone-jet transition region where the meniscus ceases to be a Taylor cone. Given an external electric field, the charge that accumulates at the surface of the liquid reduces the electric field inside the liquid, until an equilibrium is reached in which the electric field induced by the surface charge counters the external electric field and shields the liquid from this field. The characteristic time of this process is the electric relaxation time, which is a property of the liquid. When the residence time of the liquid in the cone-jet transition region (or in other region of the flow) is greater than the electric relaxation time, the surface charge follows a succession of equilibrium states and continuously shield the liquid from the external field. When this condition is not satisfied, charge relaxation effects appear and the external field penetrates into the liquid unless the liquid permittivity is large. For very polar liquids, the field due to the polarization charge at the surface prevents the external field from entering the liquid in the cone and in certain region of the jet. The charge at the surface of a conical meniscus intensifies the electric field around the cone, determining its spatial variation up to distances downstream of the apex of the order of the size of the meniscus. This electric field, first computed by Taylor, is independent of the applied voltage. Therefore local flow characteristics and the electric current carried by the jet are also independent of the applied voltage provided the size of the regions that determine these magnitudes are small compared with the size of the meniscus. Many experiments in the literature show the existence of a minimum flow rate below which the cone-jet mode cannot be established. The mean value and the standard deviation of the electrospray droplet size distribution are minimum when the device is operated near the minimum flow rate. There is no complete explanation of the minimum flow rate, even though possible mechanisms have been extensively studied. The existence of a minimum flow rate seems to be connected with the appearance of charge relaxation effects in the transition region. In this dissertation, order of magnitude estimations are worked out that show the dominant balances in the different regions of the asymptotic structure of the solution for different conditions of interest. When the inertia of the liquid plays a role in the cone-jet transition region, the region where most of the electric current is transfered to the surface lies in the jet downstream the cone-jet transition region. When the flow rate decreases to a certain value, charge relaxation effects appear simultaneously in the jet and in the transition region. For smaller values of the flow rate, charge relaxation effects are important in a region of the meniscus larger than the transition region. When viscous forces dominate in the flow in the cone-jet transition region, the current transfer region is located in the jet immediately after the transition region. When flow rate is decreased, charge relaxation effects appears gradually, first in the jet, then in the transition region, and finally in the meniscus. When flow rate is much larger than the cone-jet mode minimum, the meniscus ceases to be a cone. The electric current and the structure of the solution begin to depend on the applied voltage. The flow rate-voltage plane splits into different regions that are analyzed separately. For sufficiently large flow rates, the effect of the inertia of the liquid always becomes greater than the effect of the viscous forces. A set of numerical simulations have been carried out in order to validate the theoretical results. A simplified model of the problem has been devised to compute the flow, the electric field and the surface charge in the meniscus and the jet of an electrospray. The motion of the liquid is assumed to be quasi-unidirectional and described by Cosserat’s approximation for a slender jet. This widely used approximation allows to easily compute multiple configurations and to explore wide ranges of values of the governing parameters, retaining the effects of the viscosity and the inertia of the liquid. Electric fields inside and outside the liquid are coupled and are computed without any simplification using a boundary elements method. The stationary solution of the problem is obtained by means of an iterative method. To explore the parameter space, a solution is first computed for a set of values of the liquid properties, the flow rate and the applied voltage, an then a continuation method is used to find the boundaries of the cone-jet mode domain of existence, where the iterative method ceases to converge. When the inertia of the liquid dominates in the cone-jet transition region, the iterative method ceases to converge for values of the flow rate for which order-of-magnitude estimates first predict charge relaxation effects to be important in the cone and the jet. The electric current computed for values of the flow rate slightly above the minimum for which convergence is obtained seems to agree with estimates worked out for lower flow rates. When viscous forces dominate in the transition region, stationary solutions can be obtained for flow rates significantly smaller than the one for which charge relaxation effects first appear in the transition region. Numerical results obtained for those small values of the flow rate agree with our order of magnitude estimates. Theoretical analyses of two issues that have arisen naturally during the thesis are summarized in two appendices. The first appendix contains a study of the singularity of the electric field that most of the simulations show at the contact line between the liquid and the capillary tube. The electric field near the contact line is analyzed to determine the ranges of geometrical configurations and liquid permittivity where a singularity appears. Further estimates show that this singularity does not entail a failure in the description of the problem and does not affect the solution far from the contact line. The infinite electric stresses that appear at the contact line can be effectively balanced by surface tension. The second appendix contains an analysis of the size and slenderness of the shielded region of a dielectric liquid in the absence of free surface charge. In this region, the external electric field is partially offset by the polarization charge so that the inner electric field is much lower than the outer one. A similar region appears in the estimates when charge relaxation effects are important in the current transfer region.
Resumo:
The two-body problem subject to a constant radial thrust is analyzed as a planar motion. The description of the problem is performed in terms of three perturbation methods: DROMO and two others due to Deprit. All of them rely on Hansen?s ideal frame concept. An explicit, analytic, closed-form solution is obtained for this problem when the initial orbit is circular (Tsien problem), based on the DROMO special perturbation method, and expressed in terms of elliptic integral functions. The analytical solution to the Tsien problem is later used as a reference to test the numerical performance of various orbit propagation methods, including DROMO and Deprit methods, as well as Cowell and Kustaanheimo?Stiefel methods.
Resumo:
The Monge–Ampère (MA) equation arising in illumination design is highly nonlinear so that the convergence of the MA method is strongly determined by the initial design. We address the initial design of the MA method in this paper with the L2 Monge-Kantorovich (LMK) theory, and introduce an efficient approach for finding the optimal mapping of the LMK problem. Three examples, including the beam shaping of collimated beam and point light source, are given to illustrate the potential benefits of the LMK theory in the initial design. The results show the MA method converges more stably and faster with the application of the LMK theory in the initial design.
Resumo:
The extension of DROMO formulation to relative motion is evaluated. The orbit of the follower spacecraft can be constructed through differences on the elements defining the orbit of the leader spacecraft. Assuming that the differences are small, the problemis linearized. Typical linearized solutions to relativemotion determine the relative state of the follower spacecraft at a certain time step. Because of the form of DROMO formulation, the performance of a frozen-anomaly transformation is explored. In this case, the relative state is computed for a certain value of the anomaly, equal for leader and follower. Since the time for leader and follower do not coincide, the implicit time delay needs to be corrected to recover the physical sense of the solution. When determining the relative orbit, numerical testing shows significant error reductions compared to previous linearized solutions.
Resumo:
El aprendizaje basado en problemas se lleva aplicando con éxito durante las últimas tres décadas en un amplio rango de entornos de aprendizaje. Este enfoque educacional consiste en proponer problemas a los estudiantes de forma que puedan aprender sobre un dominio particular mediante el desarrollo de soluciones a dichos problemas. Si esto se aplica al modelado de conocimiento, y en particular al basado en Razonamiento Cualitativo, las soluciones a los problemas pasan a ser modelos que representan el compotamiento del sistema dinámico propuesto. Por lo tanto, la tarea del estudiante en este caso es acercar su modelo inicial (su primer intento de representar el sistema) a los modelos objetivo que proporcionan soluciones al problema, a la vez que adquieren conocimiento sobre el dominio durante el proceso. En esta tesis proponemos KaiSem, un método que usa tecnologías y recursos semánticos para guiar a los estudiantes durante el proceso de modelado, ayudándoles a adquirir tanto conocimiento como sea posible sin la directa supervisión de un profesor. Dado que tanto estudiantes como profesores crean sus modelos de forma independiente, estos tendrán diferentes terminologías y estructuras, dando lugar a un conjunto de modelos altamente heterogéneo. Para lidiar con tal heterogeneidad, proporcionamos una técnica de anclaje semántico para determinar, de forma automática, enlaces entre la terminología libre usada por los estudiantes y algunos vocabularios disponibles en la Web de Datos, facilitando con ello la interoperabilidad y posterior alineación de modelos. Por último, proporcionamos una técnica de feedback semántico para comparar los modelos ya alineados y generar feedback basado en las posibles discrepancias entre ellos. Este feedback es comunicado en forma de sugerencias individualizadas que el estudiante puede utilizar para acercar su modelo a los modelos objetivos en cuanto a su terminología y estructura se refiere. ABSTRACT Problem-based learning has been successfully applied over the last three decades to a diverse range of learning environments. This educational approach consists of posing problems to learners, so they can learn about a particular domain by developing solutions to them. When applied to conceptual modeling, and particularly to Qualitative Reasoning, the solutions to problems are models that represent the behavior of a dynamic system. Therefore, the learner's task is to move from their initial model, as their first attempt to represent the system, to the target models that provide solutions to that problem while acquiring domain knowledge in the process. In this thesis we propose KaiSem, a method for using semantic technologies and resources to scaffold the modeling process, helping the learners to acquire as much domain knowledge as possible without direct supervision from the teacher. Since learners and experts create their models independently, these will have different terminologies and structure, giving rise to a pool of models highly heterogeneous. To deal with such heterogeneity, we provide a semantic grounding technique to automatically determine links between the unrestricted terminology used by learners and some online vocabularies of the Web of Data, thus facilitating the interoperability and later alignment of the models. Lastly, we provide a semantic-based feedback technique to compare the aligned models and generate feedback based on the possible discrepancies. This feedback is communicated in the form of individualized suggestions, which can be used by the learner to bring their model closer in terminology and structure to the target models.
Resumo:
El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.
Resumo:
La preservación del patrimonio bibliográfico y documental en papel es uno de los mayores retos a los que se enfrentan bibliotecas y archivos de todo el mundo. La búsqueda de soluciones al problema del papel degradado ha sido abordada históricamente desde dos líneas de trabajo predominantes: la conservación de estos documentos mediante la neutralización de los ácidos presentes en ellos con agentes alcalinos, y su restauración mediante el método de laminación fundamentalmente con papel de origen vegetal. Sin embargo, no se ha explorado con éxito la posibilidad de reforzar la celulosa dañada, y el problema sigue sin encontrar una solución satisfactoria. Hasta el día de hoy, el desarrollo de tratamientos basados en biotecnología en la conservación del patrimonio documental ha sido muy escaso, aunque la capacidad de ciertas bacterias de producir celulosa lleva a plantear su uso en el campo de la conservación y restauración del papel. La celulosa bacteriana (CB) es químicamente idéntica a la celulosa vegetal, pero su organización macroscópica es diferente. Sus propiedades únicas (alto grado de cristalinidad, durabilidad, resistencia y biocompatibilidad) han hecho de este material un excelente recurso en diferentes campos. En el desarrollo de esta tesis se ha estudiado el uso de la celulosa bacteriana, de alta calidad, generada por Gluconacetobacter sucrofermentans CECT 7291, para restaurar documentos deteriorados y consolidar los que puedan estar en peligro de degradación, evitando así su destrucción y proporcionando al papel que se restaura unas buenas propiedades mecánicas, ópticas y estructurales. Se desarrollan asimismo protocolos de trabajo que permitan la aplicación de dicha celulosa. En primer lugar se seleccionó el medio de cultivo que proporcionó una celulosa adecuada para su uso en restauración. Para ello se evaluó el efecto que tienen sobre la celulosa generada las fuentes de carbono y nitrógeno del medio de cultivo, manteniendo como parámetros fijos la temperatura y el pH inicial del medio, y efectuando los ensayos en condiciones estáticas. Se evaluó, también, el efecto que tiene en la CB la adición de un 1% de etanol al medio de cultivo. Las capas de celulosa se recolectaron a cuatro tiempos distintos, caracterizando en cada uno de ellos el medio de cultivo (pH y consumo de fuente de carbono), y las capas de CB (pH, peso seco y propiedades ópticas y mecánicas). La mejor combinación de fuentes de carbono y nitrógeno resultó ser fructosa más extracto de levadura y extracto de maíz, con o sin etanol, que proporcionaban una buena relación entre la producción de celulosa y el consumo de fuente de carbono, y que generaban una capa de celulosa resistente y homogénea. La adición de etanol al medio de cultivo, si bien aumentaba la productividad, causaba un descenso apreciable de pH. Las capas de CB obtenidas con los medios de cultivo optimizados se caracterizaron en términos de sus índices de desgarro y estallido, propiedades ópticas, microscopía electrónica de barrido (SEM), difracción de rayos-X, espectroscopía infrarroja con transformada de Fourier (FTIR), grado de polimerización, ángulos de contacto estáticos y dinámicos, y porosimetría de intrusión de mercurio. Por otro lado hay que tener en cuenta que el material restaurado debe ser estable con el tiempo. Por ello esta misma caracterización se efectuó tras someter a las capas de CB a un proceso de envejecimiento acelerado. Los resultados mostraron que la CB resultante tiene un elevado índice de cristalinidad, baja porosidad interna, buenas propiedades mecánicas, y alta estabilidad en el tiempo. Para desarrollar los protocolos de trabajo que permitan la restauración con esta celulosa optimizada, se comienzó con un proceso de selección de los papeles que van a ser restaurados. Se eligieron tres tipos de papeles modelo, hechos con pasta mecánica, química y filtro (antes y después de ser sometidos a un proceso de envejecimiento acelerado), y tres libros viejos adquiridos en el mercado de segunda mano. Estos ejemplares a restaurar se caracterizaron también en términos de sus propiedades mecánicas y fisicoquímicas. El primer protocolo de restauración con CB que se evaluó fue el denominado laminación. Consiste en aplicar un material de refuerzo al documento mediante el uso de un adhesivo. Se seleccionó para ello la CB producida en el medio de cultivo optimizado con un 1% de etanol. Se aplicó un método de purificación alcalino (1 hora a 90 °C en NaOH al 1%) y como adhesivo se seleccionó almidón de trigo. El proceso de laminación se efectuó también con papel japonés (PJ), un material habitualmente utilizado en conservación, para comparar ambos materiales. Se concluyó que no hay diferencias significativas en las características estudiadas entre los dos tipos de materiales de refuerzo. Se caracterizó el material reforzado y, también, después de sufrir un proceso de envejecimiento acelerado. Los papeles laminados con CB mostraban diferencias más marcadas en las propiedades ópticas que los restaurados con PJ, con respecto a los originales. Sin embargo, el texto era más legible cuando el material de restauración era la CB. La mojabilidad disminuía con ambos tipos de refuerzo, aunque en los papeles laminados con CB de manera más marcada e independiente del material a restaurar. Esto se debe a la estructura cerrada de la CB, que también conduce a una disminución en la permeabilidad al aire. Este estudio sugiere que la CB mejora la calidad del papel deteriorado, sin alterar la información que contiene, y que esta mejora se mantiene a lo largo del tiempo. Por tanto, la CB puede ser utilizada como material de refuerzo para laminar, pudiendo ser más adecuada que el PJ para ciertos tipos de papeles. El otro método de restauración que se estudió fue la generación in situ de la CB sobre el papel a restaurar. Para ello se seleccionó el medio de cultivo sin etanol, ya que el descenso de pH que causaba su presencia podría dañar el documento a restaurar. El método de purificación elegido fue un tratamiento térmico (24 horas a 65 °C), menos agresivo para el material a restaurar que el tratamiento alcalino. Se seleccionó la aplicación del medio de cultivo con la bacteria mediante pincel sobre el material a restaurar. Una vez caracterizado el material restaurado, y éste mismo tras sufrir un proceso de envejecimiento acelerado, se concluyó que no hay modificación apreciable en ninguna característica, salvo en la permeabilidad al aire, que disminuye de manera muy evidente con la generación de CB, dando lugar a un material prácticamente impermeable al aire. En general se puede concluir que ha quedado demostrada la capacidad que tiene la celulosa generada por la bacteria Gluconacetobacter sucrofermentans CECT 7291 para ser utilizada como material de refuerzo en la restauración del patrimonio documental en papel. Asimismo se han desarrollado dos métodos de aplicación, uno ex situ y otro in situ, para efectuar esta tarea de restauración. ABSTRACT The preservation of bibliographic and documentary heritage is one of the biggest challenges that libraries and archives around the world have to face. The search for solutions to the problem of degraded paper has historically been focused from two predominants lines of work: the conservation of these documents by the neutralization of acids in them with alkaline agents, and their restoration by lining them with, basically, cellulose from vegetal sources. However, the possibility of strengthening the damaged cellulose has not been successfully explored, and the problem still persists. Until today, the development of biotechnology-based treatments in documentary heritage conservation has been scarce, although the ability of certain bacteria to produce cellulose takes to propose its use in the field of conservation and restoration of paper. The bacterial cellulose (BC) is chemically identical to the plant cellulose, but its macroscopic organization is different. Its unique properties (high degree of crystallinity, durability, strength and biocompatibility), makes it an excellent resource in different fields. The use of high-quality BC generated by Gluconacetobacter sucrofermentans CECT 7291 to restore damaged documents and to consolidate those that may be at risk of degradation, has been studied in this thesis, trying to prevent the document destruction, and to get reinforced papers with good mechanical, optical and structural properties. Protocols that allow the implementation of the BC as a reinforcing material were also developed. First of all, in order to select the culture medium that provides a cellulose suitable for its use in restoration, it has been evaluated the effect that the carbon and nitrogen sources from the culture medium have on the generated BC, keeping the temperature and the initial pH of the medium as fixed parameters, and performing the culture without shaking. The effect of the addition of 1% ethanol to the culture medium on BC properties was also evaluated. The cellulose layers were collected at four different times, characterizing in all of them the culture medium (pH and carbon source consumption), and the BC sheets (pH, dry weight and optical and mechanical properties). The best combination of carbon and nitrogen sources proved to be fructose plus yeast extract and corn steep liquor, with or without ethanol, which provided a good balance between the cellulose production and the consumption of carbon source, and generating BC sheets homogeneous and resistant. The addition of ethanol to the culture medium increased productivity but caused a noticeable decrement in pH. The BC layers generated with these optimized culture media, have been characterized in terms of tear and burst index, optical properties, scanning electron microscopy (SEM), X-ray diffraction, infrared Fourier transform spectroscopy (FTIR), polymerization degree, static and dynamic contact angles, and mercury intrusion porosimetry. Moreover it must be kept in mind that the restored materials should be stable over time. Therefore, the same characterization was performed after subjecting the layers of BC to an accelerated aging process. The results showed that the BC sheets obtained have a high crystallinity index, low internal porosity, good mechanical properties, and high stability over time. To develop working protocols to use this optimized BC in paper restoration, the first step was to select the samples to restore. Three types of model papers, made from mechanical pulp, chemical pulp and filter paper (before and after an accelerated aging process), and three old books purchased in the second hand market, were chosen. These specimens to be restored were also characterized in terms of its mechanical and physicochemical properties. The first protocol of restoration with BC to be evaluated is called linning. It consists on applying a reinforcing material to the document using an adhesive. The BC produced in the optimized culture medium with 1% ethanol was selected. An alkali purification method (1 hour at 90 °C in 1% NaOH) was applied, and wheat starch was selected as adhesive. The linning process was also carried out with Japanese paper (JP), a material commonly used in conservation, in order to compare both materials. It was concluded that there are no significant differences in the characteristics studied of the two types of reinforcing materials. The reinforced materials were characterized before and after undergoing to an accelerated aging. Papers lined with BC showed more marked differences in the optical properties that papers restored with JP. However, the text was more readable when BC was the reinforcing material. Wettability decreased with both types of reinforcement, although in the papers linned with BC it happened more marked and independently of the sample to restore. This is due to the closed structure of BC, which also leads to a decrement in air permeance. This study suggests that BC improves the deteriorated paper quality, without altering the information on it, and that this improvement is maintained over time. Therefore, the BC may be used as reinforcing material for linning, being more suitable than the JP to restore certain types of papers. The other restoration method to be evaluated was the in situ generation of BC over the paper to restore. For this purpose the culture medium without ethanol was selected, as the pH decrement caused by his presence would damage the document to restore. As purification method a heat treatment (24 hours at 65 °C) was chosen, less aggressive to the material to restore than the alkaline treatment. It was decided to apply the culture medium with the bacteria onto the material to restore with a brush. The reinforced material was characterized before and after an accelerated aging process. It was concluded that there was no substantial change in any characteristic, except for air permeance, which decreases very sharply after the generation of BC, getting a substantially air impermeable material. In general, it can be concluded that the ability of BC produced by Gluconacetobacter sucrofermentans CECT 7291 for its use as a reinforcing material in the restoration of paper documentary heritage, has been demonstrated. Also, two restoration methods, one ex situ and another in situ have been developed.
Resumo:
El nitrógeno (N) y el fósforo (P) son nutrientes esenciales en la producción de cultivos. El desarrollo de los fertilizantes de síntesis durante el siglo XX permitió una intensificación de la agricultura y un aumento de las producciones pero a su vez el gran input de nutrientes ha resultado en algunos casos en sistemas poco eficientes incrementando las pérdidas de estos nutrientes al medio ambiente. En el caso del P, este problema se agrava debido a la escasez de reservas de roca fosfórica necesaria para la fabricación de fertilizantes fosfatados. La utilización de residuos orgánicos en agricultura como fuente de N y P es una buena opción de manejo que permite valorizar la gran cantidad de residuos que se generan. Sin embargo, es importante conocer los procesos que se producen en el suelo tras la aplicación de los mismos, ya que influyen en la disponibilidad de nutrientes que pueden ser utilizados por el cultivo así como en las pérdidas de nutrientes de los agrosistemas que pueden ocasionar problemas de contaminación. Aunque la dinámica del N en el suelo ha sido más estudiada que la del P, los problemas importantes de contaminación por nitratos en zonas vulnerables hacen necesaria la evaluación de aquellas prácticas de manejo que pudieran agravar esta situación, y en el caso de los residuos orgánicos, la evaluación de la respuesta agronómica y medioambiental de la aplicación de materiales con un alto contenido en N (como los residuos procedentes de la industria vinícola y alcoholera). En cuanto al P, debido a la mayor complejidad de su ciclo y de las reacciones que ocurren en el suelo, hay un mayor desconocimiento de los factores que influyen en su dinámica en los sistemas suelo-planta, lo que supone nuevas oportunidades de estudio en la evaluación del uso agrícola de los residuos orgánicos. Teniendo en cuenta los conocimientos previos sobre cada nutriente así como las necesidades específicas en el estudio de los mismos, en esta Tesis se han evaluado: (1) el efecto de la aplicación de residuos procedentes de la industria vinícola y alcoholera en la dinámica del N desde el punto de vista agronómico y medioambiental en una zona vulnerable a la contaminación por nitratos; y (2) los factores que influyen en la disponibilidad de P en el suelo tras la aplicación de residuos orgánicos. Para ello se han llevado a cabo incubaciones de laboratorio así como ensayos de campo que permitieran evaluar la dinámica de estos nutrientes en condiciones reales. Las incubaciones de suelo en condiciones controladas de humedad y temperatura para determinar el N mineralizado se utilizan habitualmente para estimar la disponibilidad de N para el cultivo así como el riesgo medioambiental. Por ello se llevó a cabo una incubación en laboratorio para conocer la velocidad de mineralización de N de un compost obtenido a partir de residuos de la industria vinícola y alcoholera, ampliamente distribuida en Castilla-La Mancha, región con problemas importantes de contaminación de acuíferos por nitratos. Se probaron tres dosis crecientes de compost correspondientes a 230, 460 y 690 kg de N total por hectárea que se mezclaron con un suelo franco arcillo arenoso de la zona. La evolución del N mineral en el suelo a lo largo del tiempo se ajustó a un modelo de regresión no lineal, obteniendo valores bajos de N potencialmente mineralizable y bajas contantes de mineralización, lo que indica que se trata de un material resistente a la mineralización y con una lenta liberación de N en el suelo, mineralizándose tan solo 1.61, 1.33 y 1.21% del N total aplicado con cada dosis creciente de compost (para un periodo de seis meses). Por otra parte, la mineralización de N tras la aplicación de este material también se evaluó en condiciones de campo, mediante la elaboración de un balance de N durante dos ciclos de cultivo (2011 y 2012) de melón bajo riego por goteo, cultivo y manejo agrícola muy característicos de la zona de estudio. Las constantes de mineralización obtenidas en el laboratorio se ajustaron a las temperaturas reales en campo para predecir el N mineralizado en campo durante el ciclo de cultivo del melón, sin embargo este modelo generalmente sobreestimaba el N mineralizado observado en campo, por la influencia de otros factores no tenidos en cuenta para obtener esta predicción, como el N acumulado en el suelo, el efecto de la planta o las fluctuaciones de temperatura y humedad. Tanto el ajuste de los datos del laboratorio al modelo de mineralización como las predicciones del mismo fueron mejores cuando se consideraba el efecto de la mezcla suelo-compost que cuando se aislaba el N mineralizado del compost, mostrando la importancia del efecto del suelo en la mineralización del N procedente de residuos orgánicos. Dado que esta zona de estudio ha sido declarada vulnerable a la contaminación por nitratos y cuenta con diferentes unidades hidrológicas protegidas, en el mismo ensayo de campo con melón bajo riego por goteo se evaluó el riesgo de contaminación por nitratos tras la aplicación de diferentes dosis de compost bajo dos regímenes de riego, riego ajustado a las necesidades del cultivo (90 ó 100% de la evapotranspiración del cultivo (ETc)) o riego excedentario (120% ETc). A lo largo del ciclo de cultivo se estimó semanalmente el drenaje mediante la realización de un balance hídrico, así como se tomaron muestras de la solución de suelo y se determinó su concentración de nitratos. Para evaluar el riesgo de contaminación de las aguas subterráneas asociado con estas prácticas, se utilizaron algunos índices medioambientales para determinar la variación en la calidad del agua potable (Índice de Impacto (II)) y en la concentración de nitratos del acuífero (Índice de Impacto Ambiental (EII)). Para combinar parámetros medioambientales con parámetros de producción, se calculó la eficiencia de manejo. Se observó que la aplicación de compost bajo un régimen de riego ajustado no aumentaba el riesgo de contaminación de las aguas subterráneas incluso con la aplicación de la dosis más alta. Sin embargo, la aplicación de grandes cantidades de compost combinada con un riego excedentario supuso un incremento en el N lixiviado a lo largo del ciclo de cultivo, mientras que no se obtuvieron mayores producciones con respecto al riego ajustado. La aplicación de residuos de la industria vinícola y alcoholera como fuente de P fue evaluada en suelos calizos caracterizados por una alta capacidad de retención de P, lo cual en algunos casos limita la disponibilidad de este nutriente. Para ello se llevó a cabo otro ensayo de incubación con dos suelos de diferente textura, con diferente contenido de carbonato cálcico, hierro y con dos niveles de P disponible; a los que se aplicaron diferentes materiales procedentes de estas industrias (con y sin compostaje previo) aportando diferentes cantidades de P. A lo largo del tiempo se analizó el P disponible del suelo (P Olsen) así como el pH y el carbono orgánico disuelto. Al final de la incubación, con el fin de estudiar los cambios producidos por los diferentes residuos en el estado del P del suelo se llevó a cabo un fraccionamiento del P inorgánico del suelo, el cual se separó en P soluble y débilmente enlazado (NaOH-NaCl-P), P soluble en reductores u ocluido en los óxidos de Fe (CBD-P) y P poco soluble precipitado como Ca-P (HCl-P); y se determinó la capacidad de retención de P así como el grado de saturación de este elemento en el suelo. En este ensayo se observó que, dada la naturaleza caliza de los suelos, la influencia de la cantidad de P aplicado con los residuos en el P disponible sólo se producía al comienzo del periodo de incubación, mientras que al final del ensayo el incremento en el P disponible del suelo se igualaba independientemente del P aplicado con cada residuo, aumentando el P retenido en la fracción menos soluble con el aumento del P aplicado. Por el contrario, la aplicación de materiales orgánicos menos estabilizados y con un menor contenido en P, produjo un aumento en las formas de P más lábiles debido a una disolución del P retenido en la fracción menos lábil, lo cual demostró la influencia de la materia orgánica en los procesos que controlan el P disponible en el suelo. La aplicación de residuos aumentó el grado de saturación de P de los suelos, sin embargo los valores obtenidos no superaron los límites establecidos que indican un riesgo de contaminación de las aguas. La influencia de la aplicación de residuos orgánicos en las formas de P inorgánico y orgánico del suelo se estudió además en un suelo ácido de textura areno francosa tras la aplicación en campo a largo plazo de estiércol vacuno y de compost obtenido a partir de biorresiduos, así como la aplicación combinada de compost y un fertilizante mineral (superfosfato tripe), en una rotación de cultivos. En muestras de suelo recogidas 14 años después del establecimiento del experimento en campo, se determinó el P soluble y disponible, la capacidad de adsorción de P, el grado de saturación de P así como diferentes actividades enzimáticas (actividad deshidrogenasa, fosfatasa ácida y fosfatasa alcalina). Las diferentes formas de P orgánico en el suelo se estudiaron mediante una técnica de adición de enzimas con diferentes substratos específicos a extractos de suelo de NaOH-EDTA, midiendo el P hidrolizado durante un periodo de incubación por colorimetría. Las enzimas utilizadas fueron la fosfatasa ácida, la nucleasa y la fitasa las cuales permitieron identificar monoésteres hidrolizables (monoester-like P), diésteres (DNA-like P) e inositol hexaquifosfato (Ins6P-like P). La aplicación a largo plazo de residuos orgánicos aumentó el P disponible del suelo proporcionalmente al P aplicado con cada tipo de fertilización, suponiendo un mayor riesgo de pérdidas de P dado el alto grado de saturación de este suelo. La aplicación de residuos orgánicos aumentó el P orgánico del suelo resistente a la hidrólisis enzimática, sin embargo no influyó en las diferentes formas de P hidrolizable por las enzimas en comparación con las observadas en el suelo sin enmendar. Además, las diferentes formas de P orgánico aplicadas con los residuos orgánicos no se correspondieron con las analizadas en el suelo lo cual demostró que éstas son el resultado de diferentes procesos en el suelo mediados por las plantas, los microorganismos u otros procesos abióticos. En este estudio se encontró una correlación entre el Ins6P-like P y la actividad microbiana (actividad deshidrogenasa) del suelo, lo cual refuerza esta afirmación. Por último, la aplicación de residuos orgánicos como fuente de N y P en la agricultura se evaluó agronómicamente en un escenario real. Se estableció un experimento de campo para evaluar el compost procedente de residuos de bodegas y alcoholeras en el mismo cultivo de melón utilizado en el estudio de la mineralización y lixiviación de N. En este experimento se estudió la aplicación de tres dosis de compost: 1, 2 y 3 kg de compost por metro lineal de plantación correspondientes a 7, 13 y 20 t de compost por hectárea respectivamente; y se estudió el efecto sobre el crecimiento de las plantas, la acumulación de N y P en la planta, así como la producción y calidad del cultivo. La aplicación del compost produjo un ligero incremento en la biomasa vegetal acompañado por una mejora significativa de la producción con respecto a las parcelas no enmendadas, obteniéndose la máxima producción con la aplicación de 2 kg de compost por metro lineal. Aunque los efectos potenciales del N y P fueron parcialmente enmascarados por otras entradas de estos nutrientes en el sistema (alta concentración de nitratos en el agua de riego y ácido fosfórico suministrado por fertirrigación), se observó una mayor acumulación de P uno de los años de estudio que resultó en un aumento en el número de frutos en las parcelas enmendadas. Además, la mayor acumulación de N y P disponible en el suelo al final del ciclo de cultivo indicó el potencial uso de estos materiales como fuente de estos nutrientes. ABSTRACT Nitrogen (N) and phosphorus (P) are essential nutrients in crop production. The development of synthetic fertilizers during the 20th century allowed an intensification of the agriculture increasing crop yields but in turn the great input of nutrients has resulted in some cases in inefficient systems with higher losses to the environment. Regarding P, the scarcity of phosphate rock reserves necessary for the production of phosphate fertilizers aggravates this problem. The use of organic wastes in agriculture as a source of N and P is a good option of management that allows to value the large amount of wastes generated. However, it is important to understand the processes occurring in the soil after application of these materials, as they affect the availability of nutrients that can be used by the crop and the nutrient losses from agricultural systems that can cause problems of contamination. Although soil N dynamic has been more studied than P, the important concern of nitrate pollution in Nitrate Vulnerable Zones requires the evaluation of those management practices that could aggravate this situation, and in the case of organic wastes, the evaluation of the agronomic and environmental response after application of materials with a high N content (such as wastes from winery and distillery industries). On the other hand, due to the complexity of soil P cycle and the reactions that occur in soil, there is less knowledge about the factors that can influence its dynamics in the soil-plant system, which means new opportunities of study regarding the evaluation of the agricultural use of organic wastes. Taking into account the previous knowledge of each nutrient and the specific needs of study, in this Thesis we have evaluated: (1) the effect of the application of wastes from the winery and distillery industries on N dynamics from the agronomic and environmental viewpoint in a vulnerable zone; and (2) the factors that influence P availability in soils after the application of organic wastes. With this purposes, incubations were carried out in laboratory conditions as well as field trials that allow to assess the dynamic of these nutrients in real conditions. Soil incubations under controlled moisture and temperature conditions to determine N mineralization are commonly used to estimate N availability for crops together with the environmental risk. Therefore, a laboratory incubation was conducted in order to determine the N mineralization rate of a compost made from wastes generated in the winery and distillery industries, widely distributed in Castilla-La Mancha, a region with significant problems of aquifers contamination by nitrates. Three increasing doses of compost corresponding to 230, 460 and 690 kg of total N per hectare were mixed with a sandy clay loam soil collected in this area. The evolution of mineral N in soil over time was adjusted to a nonlinear regression model, obtaining low values of potentially mineralizable N and low constants of mineralization, indicating that it is a material resistant to mineralization with a slow release of N, with only 1.61, 1.33 and 1.21% of total N applied being mineralized with each increasing dose of compost (for a period of six months). Furthermore, N mineralization after the application of this material was also evaluated in field conditions by carrying out a N balance during two growing seasons (2011 and 2012) of a melon crop under drip irrigation, a crop and management very characteristic of the area of study. The mineralization constants obtained in the laboratory were adjusted to the actual temperatures observed in the field to predict N mineralized during each growing season, however, this model generally overestimated the N mineralization observed in the field, because of the influence of other factors not taken into account for this prediction, as N accumulated in soil, the plant effect or the fluctuations of temperature and moisture. The fitting of the laboratory data to the model as well as the predictions of N mineralized in the field were better when considering N mineralized from the soil-compost mixture rather than when N mineralized from compost was isolated, underlining the important role of the soil on N mineralization from organic wastes. Since the area of study was declared vulnerable to nitrate pollution and is situated between different protected hydrological units, the risk of nitrate pollution after application of different doses compost was evaluated in the same field trial with melon under two irrigation regimes, irrigation adjusted to the crop needs (90 or 100% of the crop evapotranspiration (ETc)) or excedentary irrigation (120% ETc). Drainage was estimated weekly throughout the growing season by conducting a water balance, samples of the soil solution were taken and the concentration of nitrates was determined. To assess the risk of groundwater contamination associated with these practices, some environmental indices were used to determine the variation in the quality of drinking water (Impact Index (II)) and the nitrates concentration in the groundwater (Environmental Impact Index (EII)). To combine environmental parameters together with yield parameters, the Management Efficiency was calculated. It was observed that the application of compost under irrigation adjusted to the plant needs did not represent a higher risk of groundwater contamination even with the application of the highest doses. However, the application of large amounts of compost combined with an irrigation surplus represented an increase of N leaching during the growing season compared with the unamended plots, while no additional yield with respect to the adjusted irrigation strategy is obtained. The application of wastes derived from the winery and distillery industry as source of P was evaluated in calcareous soils characterized by a high P retention capacity, which in some cases limits the availability of this nutrient. Another incubation experiment was carried out using two soils with different texture, different calcium carbonate and iron contents and two levels of available P; to which different materials from these industries (with and without composting) were applied providing different amounts of P. Soil available P (Olsen P), pH and dissolved organic carbon were analyzed along time. At the end of the incubation, in order to study the changes in soil P status caused by the different residues, a fractionation of soil inorganic P was carried out, which was separated into soluble and weakly bound P (NaOH-NaCl- P), reductant soluble P or occluded in Fe oxides (CBD-P) and P precipitated as poorly soluble Ca-P (HCl-P); and the P retention capacity and degree of P saturation were determined as well. Given the calcareous nature of the soils, the influence of the amount of P applied with the organic wastes in soil available P only occurred at the beginning of the incubation period, while at the end of the trial the increase in soil available P equalled independently of the amount of P applied with each residue, increasing the P retained in the least soluble fraction when increasing P applied. Conversely, the application of less stabilized materials with a lower content of P resulted in an increase in the most labile P forms due to dissolution of P retained in the less labile fraction, demonstrating the influence of organic matter addition on soil P processes that control P availability in soil. As expected, the application of organic wastes increased the degree of P saturation in the soils, however the values obtained did not exceed the limits considered to pose a risk of water pollution. The influence of the application of organic wastes on inorganic and organic soil P forms was also studied in an acid loamy sand soil after long-term field application of cattle manure and biowaste compost and the combined application of compost and mineral fertilizer (triple superphosphate) in a crop rotation. Soil samples were collected 14 years after the establishment of the field experiment, and analyzed for soluble and available P, P sorption capacity, degree of P saturation and enzymatic activities (dehydrogenase, acid phosphatase and alkaline phosphatase). The different forms of organic P in soil were determined by using an enzyme addition technique, based on adding enzymes with different substrate specificities to NaOH-EDTA soil extracts, measuring the hydrolyzed P colorimetrically after an incubation period. The enzymes used were acid phosphatase, nuclease and phytase which allowed to identify hydrolyzable monoesters (monoester-like P) diesters (DNA-like P) and inositol hexakisphosphate (Ins6P-like P). The long-term application of organic wastes increased soil available P proportionally to the P applied with each type of fertilizer, assuming a higher risk of P losses given the high degree of P saturation of this soil. The application of organic wastes increased soil organic P resistant to enzymatic hydrolysis, but no influence was observed regarding the different forms of enzyme hydrolyzable organic P compared to those observed in the non-amended soil. Furthermore, the different forms of organic P applied with the organic wastes did not correspond to those analyzed in the soil which showed that these forms in soil are a result of multifaceted P turnover processes in soil affected by plants, microorganisms and abiotic factors. In this study, a correlation between Ins6P-like P and the microbial activity (dehydrogenase activity) of soil was found, which reinforces this claim. Finally, the application of organic wastes as a source of N and P in agriculture was evaluated agronomically in a real field scenario. A field experiment was established to evaluate the application of compost made from wine-distillery wastes in the same melon crop used in the experiments of N mineralization and leaching. In this experiment the application of three doses of compost were studied: 1 , 2 and 3 kg of compost per linear meter of plantation corresponding to 7, 13 and 20 tonnes of compost per hectare respectively; and the effect on plant growth, N and P accumulation in the plant as well as crop yield and quality was studied. The application of compost produced a slight increase in plant biomass accompanied by a significant improvement in crop yield with respect to the unamended plots, obtaining the maximum yield with the application of 2 kg of compost per linear meter. Although the potential effects of N and P were partially masked by other inputs of these nutrients in the system (high concentration of nitrates in the irrigation water and phosphoric acid supplied by fertigation), an effect of P was observed the first year of study resulting in a greater plant P accumulation and in an increase in the number of fruits in the amended plots. In addition, the higher accumulation of available N and P in the topsoil at the end of the growing season indicated the potential use of this material as source of these nutrients.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
In this article, I will research this topic from these aspects: the material, architectural forms, building technology and space experience, hoping to figure out the characteristic of traditional Chinese architecture and the use of low technology in it, explore a suitable path of the development of Chinese Vernacular Architecture.
Resumo:
Las sociedades desarrolladas generan una gran cantidad de residuos, que necesitan una adecuada gestión. Esta problemática requiere, de este modo, una atención creciente por parte de la sociedad, debido a la necesidad de proteger el medio ambiente. En este sentido, los esfuerzos se centran en reducir al máximo la generación de residuos y buscar vías de aprovechamiento de aquellos que son inevitables, soluciones mucho más aconsejables desde el punto de vista técnico, ecológico y económico que su vertido o destrucción. Las industrias deben adoptar las medidas precisas para fomentar la reducción de estos residuos, desarrollar tecnologías limpias que permitan el ahorro de los recursos naturales que poseemos, y sobre todo buscar métodos de reutilización, reciclado, inertización y valorización de los residuos generados en su producción. La industria de la construcción es un campo muy receptivo para el desarrollo de nuevos materiales en los que incorporar estos residuos. La incorporación de diferentes residuos industriales en matrices cerámicas se plantea como una vía barata de fijar las diferentes especies metálicas presentes en transformación de rocas ornamentales, lodos de galvanización o metalúrgicos, etc. En todos los casos, la adición de estos residuos requiere su caracterización previa y la optimización de las condiciones de conformado y cocción en el caso de su incorporación a la arcilla cocida. Entre los residuos incorporados en materiales de construcción se encuentran las escorias de aluminio. La industria metalúrgica produce durante sus procesos de fusión diferentes tipos de escorias. Su reciclado es una de las líneas de interés para estas industrias. En el caso de las escorias de aluminio, su tratamiento inicial consiste en una recuperación del aluminio mediante métodos mecánicos seguido de un tratamiento químico, o plasma. Este método conduce a que la escoria final apenas contenga aluminio y sea rica en sales solubles lo que limita su almacenamiento en escombreras. La escoria es una mezcla de aluminio metal y productos no metálicos como óxidos, nitruros y carburos de aluminio, sales y otros óxidos metálicos. En este estudio se ha analizado la posibilidad de la adición de escorias de aluminio procedentes de la metalurgia secundaria en materiales de construcción, de forma que tras un procesado de las mismas permita la obtención de materiales compuestos de matriz cerámica. En la presente Tesis Doctoral se ha analizado la viabilidad técnica de la incorporación de las escorias de aluminio procedentes de la metalurgia secundaria en una matriz de arcilla cocida. Para ello se han aplicado diferentes tratamientos a la escoria y se han aplicado diferentes variables en su procesado como la energía de molienda o la temperatura de sinterizacion, además del contenido de escoria. Su compactación con agua entre el 5-10 %, secado y sinterización permite obtener piezas rectangulares de diverso tamaño. Desde el punto de vista del contenido de la escoria, se incorporó entre un 10 y 40% de escoria TT, es decir sometida una calcinación previa a 750ºC en aire. Los mejores resultados alcanzados corresponden a un contenido del 20% ESC TT, sinterizada a 980ºC, por cuanto altos contenidos en escoria condicen a piezas con corazón negro. Los productos obtenidos con la adición de 20% de escoria de aluminio a la arcilla, presentan una baja expansión tras sinterización, mejores propiedades físicas y mecánicas, y mayor conductividad térmica que los productos obtenidos con arcilla sin adiciones. Aumenta su densidad, disminuye su absorción y aumenta sus resistencias de flexión y compresión, al presentar una porosidad cerrada y una interacción escoria-matriz. En todos los casos se produce una exudación superficial de aluminio metálico, cuyo volumen está relacionado con la cantidad de escoria adicionada. Mediante la incorporación de este contenido de escoria, tras un tratamiento de disolución de sales y posterior calcinación (ESC TTQ), se mejoran las propiedades del material compuesto, no sólo sobre la de la escoria calcinada (ESC TT), sino también, sobre la escoria sin tratamiento (ESC). Si además, la adición del 20% de escoria añadida, está tratada, no sólo térmicamente sino también químicamente (ESC TTQ), éstas mejoran aún más las propiedades del material compuesto, siendo el producto más compacto, con menos poros, por lo que los valores de densidad son más elevados, menores son las absorciones y mayores resistencias de flexión y compresión, que los productos obtenidos con la adición de escoria sólo tratada térmicamente. Alcanzando valores de resistencias características a compresión del orden de 109 MPa. Los valores de conductividad térmica obtenidos también son mayores. Los ensayos tecnológicos con piezas de 160 x 30 x 5 mm y el material compuesto optimizado de arcilla+ 20%ESCTTQ, consistieron en la determinación de su expansión por humedad, eflorescencia y heladicidad, mostrando en general un mejor comportamiento que la arcilla sin adiciones. Así, se han obtenido nuevos materiales compuestos de matriz cerámica para la construcción, mejorando sus propiedades físicas, mecánicas y térmicas, utilizando escorias de aluminio procedentes de la metalurgia secundaria, como opción de valorización de estos residuos, evitando así, que se viertan a vertederos y contaminen el medio ambiente. ABSTRACT Developed societies generate a lot of waste, which need proper management. Thus, this problem requires increased attention from the society, due to the need to protect the environment. In this regard, efforts are focused on to minimize the generation of waste and find ways of taking advantage of those who are inevitable, much more advisable solutions from the technical, ecological and economic viewpoint to disposal or destruction. Industries should adopt precise measures to promote waste reduction, develop clean technologies that allow the saving of natural resources that we possess, and above all seek methods of reuse, recycling, recovery and valorisation of the waste generated in their production. The industry of the construction is a very receptive field for the development of new materials in which to incorporate these residues. The incorporation of different industrial residues in ceramic counterfoils appears as a cheap route to fix the different metallic present species in transformation of ornamental rocks, muds of galvanization or metallurgical, etc. In all the cases, the addition of these residues needs his previous characterization and the optimization of the conditions of conformed and of baking in case of his incorporation to the baked clay. Residues incorporated into construction materials include aluminium slag. The metallurgical industry produces during their fusion processes different types of slags. Recycling is one of the lines of interest to these industries. In the case of aluminium slag, their initial treatment consists of a recovery of the aluminium using mechanical methods followed by chemical treatment, or plasma. This method leads to that final slag just contains aluminium and is rich in soluble salts which limits storage in dumps. The slag is a mixture of aluminium metal and non-metallic such as oxides, nitrides and carbides of aluminium salts products and other metal oxides. The present Doctoral thesis has analysed the technical viability of the incorporation of aluminium slag from secondary Metallurgy in an array of baked clay. So they have been applied different treatments to the slag and have been applied different variables in its processing as the temperature of sintering, in addition to the content of slag or energy grinding. Its compaction with water between 5-10%, drying and sintering allows rectangular pieces of different size. From the point of view of the content of the slag, it is incorporated between 10 and 40% slag TT, that is to say, submitted a calcination prior to 750 ° C in air. The best results achieved correspond to 20% ESC TT, sintered at 980 ° C, as high levels of slag in accordance to pieces with black heart. The products obtained with the addition of 20% of slag from aluminium to clay, present a low expansion after sintering, better physical properties and mechanical, and higher thermal conductivity than the products obtained with clay, without addictions. Its density increases, decreases its absorption and increases its resistance to bending and compression, introducing a closed porosity and slag-matrix interaction. In all cases there is a superficial exudation of metallic aluminium, whose volume is related to the amount of slag added. By incorporating this content of slag, following a treatment of salt solution and subsequent calcination (ESC TTQ), are improved the properties of composite material not only on the calcined slag (ESC TT), but also in the slag without treatment (ESC). If the addition of 20% of slag added, is also treated, not only thermally but also chemically (ESC TTQ), they further improve the properties of the composite material, the product is more compact, less porous, so the values are higher density, minors are absorptions and greater resistance in bending and compression, to the products obtained with the addition of slag only treated thermally. Reaching values of compressive resistance characteristic of the order of 109 MPa. The thermal conductivity values obtained are also higher. Testing technology with pieces of 160 x 30 x 5 mm and optimized composite material of clay 20% ESCTTQ, consisted in the determination of its expansion by moisture, efflorescence and frost resistance, in general, showing a better performance than the clay without additions. Thus, we have obtained new ceramic matrix composite materials for construction, improving its physical, mechanical and thermal properties, using aluminium slag secondary metallurgy, as an option Valuation of these wastes, thus preventing them from being poured to landfills and pollute environment.
Resumo:
Existe normalmente el propósito de obtener la mejor solución posible cuando se plantea un problema estructural, entendiendo como mejor la solución que cumpliendo los requisitos estructurales, de uso, etc., tiene un coste físico menor. En una primera aproximación se puede representar el coste físico por medio del peso propio de la estructura, lo que permite plantear la búsqueda de la mejor solución como la de menor peso. Desde un punto de vista práctico, la obtención de buenas soluciones—es decir, soluciones cuyo coste sea solo ligeramente mayor que el de la mejor solución— es una tarea tan importante como la obtención de óptimos absolutos, algo en general difícilmente abordable. Para disponer de una medida de la eficiencia que haga posible la comparación entre soluciones se propone la siguiente definición de rendimiento estructural: la razón entre la carga útil que hay que soportar y la carga total que hay que contabilizar (la suma de la carga útil y el peso propio). La forma estructural puede considerarse compuesta por cuatro conceptos, que junto con el material, definen una estructura: tamaño, esquema, proporción, y grueso.Galileo (1638) propuso la existencia de un tamaño insuperable para cada problema estructural— el tamaño para el que el peso propio agota una estructura para un esquema y proporción dados—. Dicho tamaño, o alcance estructural, será distinto para cada material utilizado; la única información necesaria del material para su determinación es la razón entre su resistencia y su peso especifico, una magnitud a la que denominamos alcance del material. En estructuras de tamaño muy pequeño en relación con su alcance estructural la anterior definición de rendimiento es inútil. En este caso —estructuras de “talla nula” en las que el peso propio es despreciable frente a la carga útil— se propone como medida del coste la magnitud adimensional que denominamos número de Michell, que se deriva de la “cantidad” introducida por A. G. M. Michell en su artículo seminal de 1904, desarrollado a partir de un lema de J. C. Maxwell de 1870. A finales del siglo pasado, R. Aroca combino las teorías de Galileo y de Maxwell y Michell, proponiendo una regla de diseño de fácil aplicación (regla GA), que permite la estimación del alcance y del rendimiento de una forma estructural. En el presente trabajo se estudia la eficiencia de estructuras trianguladas en problemas estructurales de flexión, teniendo en cuenta la influencia del tamaño. Por un lado, en el caso de estructuras de tamaño nulo se exploran esquemas cercanos al optimo mediante diversos métodos de minoración, con el objetivo de obtener formas cuyo coste (medido con su numero deMichell) sea muy próximo al del optimo absoluto pero obteniendo una reducción importante de su complejidad. Por otro lado, se presenta un método para determinar el alcance estructural de estructuras trianguladas (teniendo en cuenta el efecto local de las flexiones en los elementos de dichas estructuras), comparando su resultado con el obtenido al aplicar la regla GA, mostrando las condiciones en las que es de aplicación. Por último se identifican las líneas de investigación futura: la medida de la complejidad; la contabilidad del coste de las cimentaciones y la extensión de los métodos de minoración cuando se tiene en cuenta el peso propio. ABSTRACT When a structural problem is posed, the intention is usually to obtain the best solution, understanding this as the solution that fulfilling the different requirements: structural, use, etc., has the lowest physical cost. In a first approximation, the physical cost can be represented by the self-weight of the structure; this allows to consider the search of the best solution as the one with the lowest self-weight. But, from a practical point of view, obtaining good solutions—i.e. solutions with higher although comparable physical cost than the optimum— can be as important as finding the optimal ones, because this is, generally, a not affordable task. In order to have a measure of the efficiency that allows the comparison between different solutions, a definition of structural efficiency is proposed: the ratio between the useful load and the total load —i.e. the useful load plus the self-weight resulting of the structural sizing—. The structural form can be considered to be formed by four concepts, which together with its material, completely define a particular structure. These are: Size, Schema, Slenderness or Proportion, and Thickness. Galileo (1638) postulated the existence of an insurmountable size for structural problems—the size for which a structure with a given schema and a given slenderness, is only able to resist its self-weight—. Such size, or structural scope will be different for every different used material; the only needed information about the material to determine such size is the ratio between its allowable stress and its specific weight: a characteristic length that we name material structural scope. The definition of efficiency given above is not useful for structures that have a small size in comparison with the insurmountable size. In this case—structures with null size, inwhich the self-weight is negligible in comparisonwith the useful load—we use as measure of the cost the dimensionless magnitude that we call Michell’s number, an amount derived from the “quantity” introduced by A. G. M. Michell in his seminal article published in 1904, developed out of a result from J. C.Maxwell of 1870. R. Aroca joined the theories of Galileo and the theories of Maxwell and Michell, obtaining some design rules of direct application (that we denominate “GA rule”), that allow the estimation of the structural scope and the efficiency of a structural schema. In this work the efficiency of truss-like structures resolving bending problems is studied, taking into consideration the influence of the size. On the one hand, in the case of structures with null size, near-optimal layouts are explored using several minimization methods, in order to obtain forms with cost near to the absolute optimum but with a significant reduction of the complexity. On the other hand, a method for the determination of the insurmountable size for truss-like structures is shown, having into account local bending effects. The results are checked with the GA rule, showing the conditions in which it is applicable. Finally, some directions for future research are proposed: the measure of the complexity, the cost of foundations and the extension of optimization methods having into account the self-weight.
Resumo:
La presente Tesis Doctoral evalúa la contribución de una fachada activa, constituida por acristalamientos con circulación de agua, en el rendimiento energético del edificio. Con especial énfasis en la baja afección sobre su imagen, su integración ha de favorecer la calificación del edificio con el futuro estándar de Edificio de consumo de Energía Casi Nulo (EECN). El propósito consiste en cuantificar su aportación a limitar la demanda de climatización, como solución de fachada transparente acorde a las normas de la energía del 2020. En el primer capítulo se introduce el planteamiento del problema. En el segundo capítulo se desarrollan la hipótesis y el objetivo fundamental de la investigación. Para tal fin, en el tercer capítulo, se revisa el estado del arte de la tecnología y de la investigación científica, mediante el análisis de la literatura de referencia. Se comparan patentes, prototipos, sistemas comerciales asimilables, investigaciones en curso en Universidades, y proyectos de investigación y desarrollo, sobre envolventes que incorporan acristalamientos con circulación de agua. El método experimental, expuesto en el cuarto capítulo, acomete el diseño, la fabricación y la monitorización de un prototipo expuesto, durante ciclos de ensayos, a las condiciones climáticas de Madrid. Esta fase ha permitido adquirir información precisa sobre el rendimiento del acristalamiento en cada orientación de incidencia solar, en las distintas estaciones del año. En paralelo, se aborda el desarrollo de modelos teóricos que, mediante su asimilación a soluciones multicapa caracterizadas en las herramientas de simulación EnergyPlus y IDA-ICE (IDA Indoor Climate and Energy), reproducen el efecto experimental. En el quinto capítulo se discuten los resultados experimentales y teóricos, y se analiza la respuesta del acristalamiento asociado a un determinado volumen y temperatura del agua. Se calcula la eficiencia en la captación de la radiación y, mediante la comparativa con un acristalamiento convencional, se determina la reducción de las ganancias solares y las pérdidas de energía. Se comparan el rendimiento del acristalamiento, obtenido experimentalmente, con el ofrecido por paneles solares fototérmicos disponibles en el mercado. Mediante la traslación de los resultados experimentales a casos de células de tamaño habitable, se cuantifica la afección del acristalamiento sobre el consumo en refrigeración y calefacción. Diferenciando cada caso por su composición constructiva y orientación, se extraen conclusiones sobre la reducción del gasto en climatización, en condiciones de bienestar. Posteriormente, se evalúa el ahorro de su incorporación en un recinto existente, de construcción ligera, localizado en la Escuela de Arquitectura de la Universidad Politécnica de Madrid (UPM). Mediante el planteamiento de escenarios de rehabilitación energética, se estima su compatibilidad con un sistema de climatización mediante bomba de calor y extracción geotérmica. Se describe el funcionamiento del sistema, desde la perspectiva de la operación conjunta de los acristalamientos activos e intercambio geotérmico, en nuestro clima. Mediante la parametrización de sus funciones, se estima el beneficio adicional de su integración, a partir de la mejora del rendimiento de la bomba de calor COP (Coefficient of Performance) en calefacción, y de la eficiencia EER (Energy Efficiency Ratio) en refrigeración. En el recinto de la ETSAM, se ha analizado la contribución de la fachada activa en su calificación como Edificio de Energía Casi Nula, y estudiado la rentabilidad económica del sistema. En el sexto capítulo se exponen las conclusiones de la investigación. A la fecha, el sistema supone alta inversión inicial, no obstante, genera elevada eficiencia con bajo impacto arquitectónico, reduciéndose los costes operativos, y el dimensionado de los sistemas de producción, de mayor afección sobre el edificio. Mediante la envolvente activa con suministro geotérmico no se condena la superficie de cubierta, no se ocupa volumen útil por la presencia de equipos emisores, y no se reduce la superficie o altura útil a base de reforzar los aislamientos. Tras su discusión, se considera una alternativa de valor en procesos de diseño y construcción de Edificios de Energía Casi Nulo. Se proponen líneas de futuras investigación cuyo propósito sea el conocimiento de la tecnología de los acristalamientos activos. En el último capítulo se presentan las actividades de difusión de la investigación. Adicionalmente se ha proporcionado una mejora tecnológica a las fachadas activas existentes, que ha derivado en la solicitud de una patente, actualmente en tramitación. ABSTRACT This Thesis evaluates the contribution of an active water flow glazing façade on the energy performance of buildings. Special emphasis is made on the low visual impact on its image, and the active glazing implementation has to encourage the qualification of the building with the future standard of Nearly Zero Energy Building (nZEB). The purpose is to quantify the façade system contribution to limit air conditioning demand, resulting in a transparent façade solution according to the 2020 energy legislation. An initial approach to the problem is presented in first chapter. The second chapter develops the hypothesis and the main objective of the research. To achieve this purpose, the third chapter reviews the state of the art of the technology and scientific research, through the analysis of reference literature. Patents, prototypes, assimilable commercial systems, ongoing research in other universities, and finally research and development projects incorporating active fluid flow glazing are compared. The experimental method, presented in fourth chapter, undertakes the design, manufacture and monitoring of a water flow glazing prototype exposed during test cycles to weather conditions in Madrid. This phase allowed the acquisition of accurate information on the performance of water flow glazing on each orientation of solar incidence, during different seasons. In parallel, the development of theoretical models is addressed which, through the assimilation to multilayer solutions characterized in the simulation tools EnergyPlus and IDA-Indoor Climate and Energy, reproduce the experimental effect. Fifth chapter discusses experimental and theoretical results focused to the analysis of the active glazing behavior, associated with a specific volume and water flow temperature. The efficiency on harvesting incident solar radiation is calculated, and, by comparison with a conventional glazing, the reduction of solar gains and energy losses are determined. The experimental performance of fluid flow glazing against the one offered by photothermal solar panels available on the market are compared. By translating the experimental and theoretical results to cases of full-size cells, the reduction in cooling and heating consumption achieved by active fluid glazing is quantified. The reduction of energy costs to achieve comfort conditions is calculated, differentiating each case by its whole construction composition and orientation. Subsequently, the saving of the implementation of the system on an existing lightweight construction enclosure, located in the School of Architecture at the Polytechnic University of Madrid (UPM), is then calculated. The compatibility between the active fluid flow glazing and a heat pump with geothermal heat supply system is estimated through the approach of different energy renovation scenarios. The overall system operation is described, from the perspective of active glazing and geothermal heat exchange combined operation, in our climate. By parameterization of its functions, the added benefit of its integration it is discussed, particularly from the improvement of the heat pump performance COP (Coefficient of Performance) in heating and efficiency EER (Energy Efficiency Ratio) in cooling. In the case study of the enclosure in the School of Architecture, the contribution of the active glazing façade in qualifying the enclosure as nearly Zero Energy Building has been analyzed, and the feasibility and profitability of the system are studied. The sixth chapter sets the conclusions of the investigation. To date, the system may require high initial investment; however, high efficiency with low architectural impact is generated. Operational costs are highly reduced as well as the size and complexity of the energy production systems, which normally have huge visual impact on buildings. By the active façade with geothermal supply, the deck area it is not condemned. Useful volume is not consumed by the presence of air-conditioning equipment. Useful surface and room height are not reduced by insulation reinforcement. After discussion, water flow glazing is considered a potential value alternative in nZEB design and construction processes. Finally, this chapter proposes future research lines aiming to increase the knowledge of active water flow glazing technology. The last chapter presents research dissemination activities. Additionally, a technological improvement to existing active facades has been developed, which has resulted in a patent application, currently in handling process.