991 resultados para Radicaux libres


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el marco de una investigación más amplia que examina en forma comparada los oficialismos de Lula en Brasil y de Kirchner en Argentina durante 2005-2006, el presente trabajo se propone estudiar, la relación que algunos movimientos sociales mantuvieron con el gobierno, como parte integral o como aliados del mismo, en el período consignado. En ese sentido, el Movimento dos Trabalhadores Rurais Sem Terra (MST), en Brasil, y organizaciones como la Federación Tierra y Vivienda (FTV), el Frente Transversal Nacional y Popular, el Movimiento Evita, y Libres del Sur, en Argentina, constituyen uno de los distintos sujetos de dos conjuntos oficialistas que difícilmente puedan ser caracterizados, como se hacía en el pasado, como "partido oficial" o "coaliciones de partidos". Los oficialismos en cuestión no sólo aglutinan en su seno a un conglomerado muy heterogéneo de actores políticos individuales y de dirigentes de múltiples fuerzas y sellos partidarios -con sus respectivas redes de poder territorial-, sino que incluyen también a estas organizaciones populares, protagonistas de históricos procesos de amplia movilización y lucha social. ¿Qué identidad reivindican esas organizaciones en su apoyo al gobierno? ¿Cómo conciben su propio rol dentro del oficialismo? ¿Cómo definen a ese conjunto al que pertenecen o se asocian? ¿Cuál es su relación con el presidente?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente artículo tiene por objeto comunicar el resultado de una investigación referida a la participación de los jóvenes católicos platenses durante el conflicto universitario conocido como 'Laica o Libre' a fines del año 1958 en Argentina. En la primera parte del trabajo, se trazan características de la juventud católica a mediados del siglo XX. En segundo término, se presenta un recorrido histórico de los distintos intentos de los sectores católicos para crear 'universidades libres'. Finalmente, se intenta recrear los modos de participación política de los jóvenes católicos platenses durante el conflicto. A partir de un enfoque metodológico cualitativo, propio del análisis histórico de fuentes primarias, se analizaron publicaciones periódicas católicas, de artículos de la prensa local, documentos descalificados de la Policía y el marco legal que estaba en discusión. Asimismo, se realizaron entrevistas de carácter semi estructuradas a protagonistas que fueron representantes del sector juvenil católico de la época

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mucho se ha hablado y escrito en torno al cambio de paradigma en la educación física, así como al protagonismo que la conducta motriz ostenta en este proceso para modernizar esta disciplina pedagógica que sigue aplicando los métodos de producción industrial que heredó en el siglo XVIII. En el gimnasio Olimpia de la ciudad argentina de Chivilcoy se está llevando a cabo esta importante y necesaria transformación de un modo eficaz y exitoso. Las clases de educación física que allí se imparten, se llevan a cabo mediante un método singular e innovador que aplica la pedagogía de las conductas motrices (Parlebas), con propuestas pedagógicas basadas en procesos de exploración motriz (Feldenkrais) y generando dinámicas pedagógicas mediante puestas en común y circuitos con situaciones psicomotrices y sociomotrices. En una reciente investigación cualitativa en torno a "qué es lo que se aprende en las clases con Movitransfer", una muestra significativa de alumnos del gimnasio dicen que han aprendido a sentirse libres, puesto que su autoconfianza ha ido acrecentándose con las clases; que su calidad de vida ha mejorado porque las situaciones pedagógicas planteadas en clase son competencias para la vida; que al desanudarse están descubriendo lo mejor de sí mismos; que cada vez se sienten mejor capacitados para evaluar y optimizar sus propias conductas motrices y que el gimnasio se ha convertido en una escuela para la vida en donde los alumnos ponen en práctica un modo de vivir que les hace sentirse cada vez más felices

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las prácticas de gimnasia en los gimnasios proponen/imponen, normalizan y naturalizan determinadas relaciones de poder/saber entre sus adeptos, quienes a partir de ellas, disciplinan y corrigen sus cuerpos pero no por ello necesariamente se hacen más libres y sapientes de sus prácticas y discursos corporales, de lo que hacen con sus propios cuerpos o de lo que piensan, sienten o dicen acerca de ellos. Cuando el poder se transforma en dominación, la educación corporal generada no permite resistencias ni cuestionamientos y lo que se adquiere no se transforma en herramienta crítica para gobernar las próximas elecciones corporales cotidianas. En este artículo se analizan, en primer lugar, algunos términos pertenecientes a Michel Foucault tales como sujeto, discurso, práctica, poder, dominación y disciplina; en segundo lugar, se examina el concepto de educación aportado por Inés Dussel y Marcelo Carusso. Por último, se utilizan todas estas aproximaciones conceptuales a modo de herramientas teóricas para establecer algunas conclusiones iniciales y provisorias que permitan revisar la dinámica de algunas clases colectivas de gimnasia de un gimnasio de la ciudad de la Plata, en las cuales se recabaron datos empíricos con observación participante. Este trabajo forma parte de los estudios iniciales pertenecientes al proyecto de tesis "La gimnasia en los gimnasios: ni educación, ni física" correspondiente a la Maestría en Educación Corporal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El caso clínico presentado muestra el trabajo psicoterapéutico realizado con una paciente oncológica, dentro del marco de intervención en Psicooncología, en la fase final de la evolución tumoral del cáncer. Si hay algo impreciso, inasible, alterante, dilemático, generador de fantasías y angustias en nuestra labor, es el tiempo que transcurre en torno a la fase final de la vida del paciente. Trabajar con el paciente moribundo, implica trabajar con nuestra propia muerte. Muerte es una palabra temida, olvidada, rechazada, final de todo. Morir hoy en día es un acto triste y solitario en la Unidad de Terapia Intensiva de los hospitales, donde la atención es despersonalizada, donde el paciente pierde el derecho de opinar y se vuelve un cuerpo a ser tratado. El agonizante pierde su status y la experiencia de la muerte es destituida de contenido. Las personas al final de su vida prefieren realmente estar en su casa, con sus afectos, y no en una sala de hospital. En la inmensa mayoría de los pacientes se puede lograr el objetivo de que puedan permanecer libres de dolor y otros síntomas molestos, estando lúcidos y preparándose para morir. Quien recibe el diagnóstico de una enfermedad grave tiene que hacer un duelo, transitar un duelo. No hay duelo solamente en el que se queda, sino también en el que se va. El objeto de duelo en los pacientes terminales es la vida misma. Es fundamental trabajar en el paciente con sus miedos y con su depresión, posibilitándole la oportunidad de participar de la muerte como participó de la vida. La Psicooncología entiende que para que una persona pueda tener cáncer se requiere previamente que ocurra una alteración yoica que lleva a aceptar como propio el tumor. Por ello es sensato y necesario un diagnóstico y tratamiento coadyuvante en el paciente con cáncer. Se entiende que el cáncer le pertenece a esa persona desde el punto de vista orgánico y psíquico. La descripción del tumor es una parte del problema. La otra parte es el individuo. La enfermedad y el pronóstico resultan de la interrelación del cáncer con la totalidad de la persona. Todo él está comprometido. No solo se trata de un proceso local que puede diseminarse por metástasis. Mucho antes, es un proceso general del individuo que se localizará. El cáncer es sólo un síntoma. La persona es mucho más que su enfermedad; así como también lo enfermo puede ser mucho más que el paciente Toda psicoterapia es un compromiso real y vital. La entrevista deberá tener la característica de que el fenómeno transferencial se cumpla desde los primeros instantes y permanezca. La Psicooncología investiga en el alma las respuestas emocionales y afectivas que pudieron provocar como síntoma ese cáncer. No busca traumas, ni estrés; busca la respuesta personal a esas circunstancias. De modo tal que la Psicooncología se ocupa de la VIDA y es un tratamiento coadyuvante que todo paciente tiene derecho a recibir. Con esta actividad no se pretende curar un proceso que ya ocurrió, se intenta buscar razones en lo que caracteriza al ser humano, en sus más importantes valores: buscar razones en su alma

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo abordará el estudio del comportamiento de la expresión dentro de todo. Enmarcada en el enfoque cognitivo prototípico, nuestra reflexión parte del principio de la estructuración de nuestro conocimiento según Modelos Cognitivos Idealizados (Lakoff 1987) y, en este caso particular, de esquemas de imagen (Johnson 1987). Con un criterio de progresión que correlaciona semánticamente los empleos libres y los cohesionados, se analizarán secuencias tales como "dentro del armario", "la necesaria turbulencia que debe existir dentro de todo horno de gas o leña"; "cuestiones dentro de todo sencillas" y "No, a mí dentro de todo me parece bien lo que dijiste". Un estudio contextual a partir de usos auténticos y el relevamiento de la cantidad de empleos libres versus cohesionados permitirá establecer el grado de fijación de la expresión en el discurso. A partir de este estudio, se propondrá una modelización del valor semántico-pragmático de dentro de todo atendiendo al semantismo predominante de la forma preposicional dentro, a saber, la marcación perimetral, que se perfilará con ciertas especificidades según su empleo como adverbio o como marcador discursivo. En su uso adverbial, la expresión orienta el establecimiento de un campo en cuyo interior se negocian, según grados de aproximación, instancias de validación positiva. Juega un rol particular en la interpretación de estos empleos el concepto de hedges (Lakoff 1972) o aproximación. Como marcador discursivo, dentro de todo sugiere visibilización de límites de aceptabilidad que llevan a una reconsideración de los elementos evaluados. En esta reconsideración, juegan un rol particular la mitigación y la orientación positiva que el hablante busca dar a su discurso

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, los bosques secos neotropicales se encuentran restringidos a una pequeña fracción de su área de distribución histórica, debido principalmente a la acelerada pérdida de cobertura vegetal. Es por esta razón que son reconocidos como uno de los ecosistemas más amenazados del mundo. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, y pese a que el esfuerzo dedicado al estudio y conocimiento de estos bosques no es comparable al de otros bosques de la región, especialmente los ligados a las pluviselvas húmedas, los trabajos llevados a cabo fundamentalmente por botánicos han permitido describir una buena parte de su diversidad florística en amplias regiones del neotrópico, constatar el elevado nivel de endemicidad de su flora y determinar algunos de los factores que determinan su estructura y funcionamiento. Sin embargo, aún existen regiones como la denominada Pacífico Ecuatorial donde la investigación ha sido escaza. El conocimiento de la diversidad biológica así como cuáles son los factores que controlan el funcionamiento y la estructuración de estos bosques resultan prioritarios para poder desarrollar acciones de conservación efectivas. El presente trabajo aporta a la comprensión del funcionamiento de dos sistemas secos tropicales de la región del Pacífico Ecuatorial el matorral seco y el bosque seco del sur del Ecuador. Se estableció una parcela de 9ha en bosque seco con el fin de evaluar asociaciones intraespecíficas e interespecíficas, se registró la diversidad y abundancia de todas las especies leñosas con un dap igual o superior a 5cm, además se obtuvo la ubicación espacial de cada individuo. Adicionalmente se realizaron 109 parcelas a lo largo de 4 de los cantones de la provincia de Loja que conservan en buen estado bosques secos. En el matorral seco se desarrollo un estudio observacional a lo largo de una gradiente estrés climático y dos niveles de manejo no disturbado y pastoreado. En cada nivel se colocaron 2 parcelas dentro de las cuales se registró la abundancia, diversidad y cobertura de todas las especies anuales. Además, se tomaron 9 muestras de suelo en cada parcela para evaluar el banco de semillas del suelo. Los resultados muestran que el bosque seco las relaciones positivas planta-planta juegan un papel fundamental en la estructura florística de las comunidades. Así se pudo observar que a escalas regionales la disponibilidad de agua tiene una relación inversa con la riqueza, encontrándose que áreas con menor disponibilidad de agua generan comunidades vegetales más diversas. Esta respuesta es coherente con la Hipótesis de la Gradiente de Estrés ya que el incremento de las relaciones de facilitación estaría incrementando la cantidad de especies que coexisten a nivel local. Por otro lado a escalas locales las especies de bosque seco tropical muestran un bajo grado de agrupamiento con sus congéneres, lo cual coincide con la propuesta de la “Dependencia Negativa de la Densidad” propuesta por Janzen – Connell. Esta respuesta contribuye al comportamiento acumulador de especies observado en el bosque seco, por lo observado en este trabajo a escalas locales las interacciones positivas planta-planta son predominantes. En el matorral seco montano los resultados muestran que la magnitud de los efectos de las especies ingenieras del ecosistema en la diversidad de especies y la productividad varían a lo largo de gradientes ambientales y a con la escala espacial de la comunidad. Así, en las zonas con mayor presión ambiental y una mayor presión de pastoreo, el efecto de las plantas ingenieras es mayor. Por otro lado, se pudo observar que la estabilidad de la diversidad en la escala de la comunidad parece ser la norma con efectos nulos de los factores de estrés en las propiedades de la comunidad. A nivel de microhábitat la importancia de la facilitación incrementa cuando los factores de estrés climático aumentan, y bajo las copas de Croton la diversidad y la cobertura es mayor que en el suelo desnudo, esta diferencia se incrementa con el estrés abiótico. Esta respuesta fue modulada por el pastoreo, en las zonas más altas con menor estrés climático, la facilitación se mantuvo debido a que la competencia se reduce por efecto del pastoreo, ya que las manchas se transforman refugios libres de herbivoría. Así, el estrés biótico por los consumidores altera significativamente la naturaleza y la fuerza de las interacciones entre especies en las comunidades, e incluso puede cambiar el signo de las interacciones entre especies. El banco de semillas muestra una importante interacción entre los factores de estrés, los efectos en el banco de semillas del suelo se explica mejor cuando los factores de estrés, tanto climáticos y el pastoreo son evaluados. En condiciones inalteradas la riqueza y abundancia del banco de semillas aumenta con la altitud y se reduce el estrés. Este patrón es modulado por el pastoreo, en el extremo inferior del gradiente altitudinal, el pastoreo produce un aumento en la riqueza y la densidad del banco de semillas y en el extremo superior del gradiente altitudinal el pastoreo reduce estos dos atributos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta tesis fue incrementar el valor proteico para rumiantes de la harina de girasol mediante tratamientos combinados con ácidos y calor para proteger sus proteínas frente a la degradación ruminal. Estos estudios comprenden dos experimentos realizados sobre ovinos mediante tecnologías in vitro (experimento 1) o in situ e in vivo (experimento 2), empleando siempre dos ácidos: málico u ortofosfórico. Aprovechando este último experimento, también se consideraron otros objetivos de carácter metodológico con el fin de mejorar la precisión de las estimas de i) la degradabilidad ruminal y la digestibilidad intestinal de la proteína y los aminoácidos (AAs) de los alimentos y ii) la síntesis microbiana ruminal y su contribución al flujo post-ruminal de nutrientes al animal. En el experimento 1 (capítulo 2) se efectuaron cuatro ensayos in vitro para estudiar la influencia de distintos factores que puedan afectar la eficacia de estos tratamientos. En cada ensayo se utilizó una réplica por tratamiento (dos para el tratamiento control) y dos bolsas vacías (empleadas para corregir la contaminación microbiana) en cada una de las cuatro botellas del incubador (ANKOM Daisy II). Cada botella contenía 2 l de medio de incubación, saturado con CO2 para asegurar la anaerobiosis. Este medio consistió en una mezcla de solución McDougall y liquido ruminal filtrado en relación 4:1. El liquido ruminal fue obtenido de 2 corderos canulados en rumen, utilizándose bien solo o mezclado con el del otro cordero en una relación 3:1. Así, cada botella de incubación contenía un inoculo ruminal diferente. Las incubaciones se realizaron a 39 ºC durante 20 h, siendo las bolsas lavadas con agua corriente y almacenadas a -20 ºC. Tras ser descongeladas, se lavaron 3 veces durante 5 min en una mini-lavadora de turbina, se desecaron a 80 ºC durante 48 h y se destinaron íntegras al análisis de N-Kjeldahl. En el ensayo 1 se estudió el efecto del volumen de disolución de dos dosis de ácido ortofosfórico (0,4 y 1,2 equivalentes gramo (eq)/kg de harina de girasol), testando cinco volúmenes de disolución (80, 160, 240, 320 and 400 ml/kg de harina) para cada dosis, desecándose las harinas a 60 ºC hasta sequedad al tacto. La proteína bruta (PB) indegradada se incremento con la dosis de ácido empleada y también (como tendencia, P < 0,1) con el volumen de dilución. En base a ello en los siguientes ensayos se utilizo el volumen de dilución mayor (400 ml/kg). En el ensayo 2 se estudió el efecto de la dosis y del tipo de ácido a cuatro dosis (1,2; 2,4; 3,6 y 4,8 eq/kg), secándose igualmente las muestras tratadas a 60 ºC. La PB indegradada aumentó con la dosis de ácido, siendo también mayor para el ácido málico, tanto en este ensayo como en los posteriores. En el ensayo 3 se estudiaron los efectos de los dos ácidos, cuatro concentraciones (0,6; 1,2; 1,8 y 2,4 eq/kg) y tres tratamientos térmicos para el secado de las muestras (100, 150 and 200 ºC durante 60, 30 y 20 minutos, respectivamente). Con los tratamientos térmicos a 100 y 150 ºC no hubo un incremento de protección para concentraciones superiores a 0,8 eq/kg para ambos ácidos. Para incrementar la protección fue necesario aumentar la temperatura a 200 ºC y la dosis a 1,2 eq/kg, no observándose un aumento de protección a dosis mayores. En el ensayo 4 se estudiaron los efectos sobre la lisina disponible, la solubilidad de la PB en saliva artificial de McDougall y la PB indegradada in vitro de tratar la harina solo con agua o con disoluciones de ambos ácidos a dosis de 0,8 eq/kg y temperaturas de secado de 100 ó 150 ºC en las mismas condiciones que en el ensayo 3. No se apreciaron efectos sobre la lisina disponible para ninguno de los tratamientos. El efecto específico de los ácidos quedo demostrado tanto por la fuerte reducción de la solubilidad de la PB como por el aumento de la PB indegradada frente al tratamiento con agua. En conjunto, los resultados de este experimento mostraron que la eficacia de estos tratamientos depende del tipo y dosis de ácido y de su dilución, así como de las condiciones de secado. Como tratamiento de mayor interés a aplicar posteriormente en el experimento 2 se consideró una dosis de 0,8 eq/kg de harina, aplicada en un volumen de 400 ml/kg (correspondiente a soluciones 1 M y 0,67 M para los ácidos málico y ortofosfórico, respectivamente) y desecación a 150 ºC. El experimento 2 (capítulos 3 a 7) se realizó con un diseño en cuadrado latino 3x3, empleando tres corderos canulados en rumen y duodeno y tres dietas isoproteicas: U, M y P, que incluían harinas de girasol sin tratar (control) y tratadas con acido málico u ortofosfórico, respectivamente. La harina de girasol se trató en las condiciones ya indicadas siendo necesarias 6 horas para su secado en estufa. Las dietas incluían 40% de heno de raigrás italiano y 60% de concentrado a base de harina de girasol (tratada y/o sin tratar), trigo y corrector vitamínico-mineral, siendo suministradas a 75 g/kg P0.75 (equivalente a 2,3 × mantenimiento). La relación harina de girasol sin tratar y tratada fue de 100:0 en la dieta U y entorno a 40:60 en las dietas M y P. Tras 10 días de adaptación a la dieta, se estudiaron sucesivamente: i) el tránsito hasta el duodeno de las partículas del heno (solo en la dieta control) y de la harina de girasol marcadas previamente con europio e iterbio, respectivamente; ii) la fermentación ruminal durante el periodo postprandial, iii) la degradación ruminal in situ de la harina de girasol específica de cada dieta (y del trigo y el heno en la dieta control) y iv) la magnitud y composición del contenido ruminal mediante el vaciado manual del rumen-retículo. Durante todo el periodo experimental se infundio de forma continua una solución de sulfato amónico enriquecido en 15N (98 átomos %) para corregir la contaminación microbiana ruminal en los estudios in situ y para establecer las diferencias de composición química entre las bacterias libres (BAL) y adherentes (BAS) del rumen. Esta solución incluyó en los dos últimos días Li-Cr- EDTA para determinar la tasa de dilución ruminal. Posteriormente, y tras un periodo de al menos 10 días para eliminar el enriquecimiento en 15N de la digesta, se estudió la digestibilidad intestinal de los distintos alimentos mediante la técnica de bolsas móviles. La determinación del bypass (BP) o de la degradabilidad efectiva (DE) de la materia seca (MS) y de la PB se realizó por el método tradicional de integración matemática; estos valores se obtuvieron también para la PB y los AAs generando una muestra representativa del flujo post-ruminal del alimento en estudio en cada animal. Ello se realizó mediante la mezcla de los distintos residuos de incubación en base a la función que describe el flujo de alimento indegradado que abandona el rumen. Todos estos trabajos se realizaron considerando la tasa de salida de partículas del rumen (kp) y, según casos, considerando también la tasa de conminución y mezcla de las partículas en este compartimento (kc). Para este último caso se ha desarrollado también el modelo matemático que describe este flujo y permite este cálculo. Los valores no corregidos por la contaminación microbiana del BP (o de DE) de la PB resultantes de ambos métodos se han comparado tanto en las harinas de girasol como en los restantes alimentos de la dieta, obteniéndose valores similares, sin apreciarse desviaciones sistemáticas. Sobre las muestras compuestas representativas de la composición química del BP se determino la digestibilidad intestinal efectiva (DIE) de la MS, PB y AAs. Todos los valores resultantes de esta técnica fueron corregidos para la contaminación microbiana de las partículas que tiene lugar en el rumen. Los estudios de transito digestivo se realizaron tras suministrar en el comedero a los corderos una dosis simple de los alimentos marcados, seguida de la toma de muestras de la digesta duodenal durante 82 h. En la dieta testigo se suministraron simultáneamente el heno de raigrás y la harina de girasol, mientras que en las otras dietas solo se suministró esta última. La harina de girasol mostro un mayor valor para kc frente al heno (0,5766 v. 0,0892, /h), mientras que no hubo diferencias entre los dos alimentos para kp (0,0623 v. 0,0609, /h). Para la harina de girasol no se apreciaron diferencias entre dietas para kc, pero si se redujo de manera moderada la tasa kp con los tratamientos, siendo ésta también menor al utilizar ácido ortofosfórico frente al uso de ácido malico (0,0577 v. 0,0600, /h). El empleo de las harinas tratadas no modifico los parámetros de fermentación ruminal, la composición de los contenidos ruminales o la tasa de dilución del rumen. Los valores efectivos del BP y de DIE de la MS, PB y AAs de las harinas de girasol se obtuvieron considerando kc y kp, conjuntamente. Los tratamientos de protección incrementaron el BP de MS y PB en 48,5 y 268% de media, respectivamente. Estos incrementos se debieron principalmente al descenso de la fracción soluble y de la velocidad de degradación, pero también al aumento de la fracción indegradable, especialmente usando ácido ortofosfórico. Con los tratamientos se incrementó también la DIE de la MS (108% de media) y de la PB con gran diferencia entre los ácidos málico y ortofosfórico (20,7 v. 11,8%). Como consecuencia de estos cambios la protección aumentó la fracción realmente digerida en el intestino en 211% (MS) y 325% (PB), sin efectos entre ambos ácidos. Considerando la reducción del suministro de energía fermentable para los microorganismos ruminales asociada a la protección y los parámetros indicados por el sistema PDI francés para la síntesis de proteína microbiana digestible, la eficacia de conversión de PB en proteína metabolizable aumentó de 0,244 a 0,559 y 0,515 con el tratamiento con acido málico y ortofosfórico, respectivamente. El contenido en aminoácidos (AAs) fue similar en todas las harinas salvo por una disminución de lisina en las harinas tratadas. De forma análoga a la PB, los tratamientos de protección incrementaron el BP y la DIE de la mayoría de AAs. El aporte de AAs metabolizabes de la harina se multiplico en 3,87 para los AAs azufrados y en menor medida (2,5 veces) para la lisina, como consecuencia de las pérdidas sufridas a consecuencia del tratamiento térmico. Estos tratamientos se muestran, por tanto, útiles para incrementar el valor proteico de la harina de girasol, si bien su empleo junto con concentrados proteicos ricos en lisina bypass digestible mejoraría el perfil de la proteína metabolizable. La corrección de la contaminación microbiana de las partículas que tiene lugar en el rumen se asoció en todos los alimentos testados y, de forma general, con reducciones del BP y de su DIE en todas las fracciones estudiadas. Estas reducciones fueron pequeñas en todos los concentrados, de forma acorde con los muy pequeños niveles de contaminación registrados tanto en las harinas de girasol como en el grano de trigo. Por el contrario, esta contaminación, al igual que los efectos de su corrección, fueron muy importantes en el heno de raigrás. Esta contaminación aumentó al tener en cuenta kc. Así, para la proporción de PB de origen microbiano existente en las muestras compuestas representativas del BP, este aumento fue significativo para el heno de raigrás (0,463 v. 0,706) y solo numérico para la harina de girasol (0,0170 v. 0,0208). La reducción de las estimas de DIE al corregir esta contaminación fue consecuencia de la eliminación de forma casi completa de los microorganismos adherentes en todos los residuos testados. Así, esta biomasa se redujo en 96,1% como media de 7x3 observaciones. Como resultado de las diferencias acumulativas a nivel del rumen e intestino, la no corrección de la contaminación microbiana junto con la no consideración de kc condujo a fuertes sobrestimaciones de la PB digerida en el intestino. Ésta fue de 39% en la harina de girasol (0,146 v. 0,105) y de 761% en el heno de raigrás (0,373 v. 0,0433). Estos resultados muestran que es necesario considerar tanto kc como corregir la contaminación microbiana para obtener estimas in situ precisas en forrajes, mientras que en concentrados, siempre que la contaminación microbiana sea pequeña, es más importante considerar kc. La elevada contaminación microbiana observada en el heno de raigrás se asoció también con importantes errores a nivel del N asociado a la fibra neutro (FND) y ácido (FAD) detergente (NDIN y ADIN, respectivamente) e incluso de estas fracciones de fibra, evidenciándose que estos métodos no eliminan completamente la contaminación microbiana que sufren los alimentos en su paso por el retículorumen. Así, en la muestra compuesta representativa de la composición química del flujo postruminal antes descrita, la sobrevaloración por no corregir la contaminación microbiana fue de 99,8; 24,2; 3,34 y 0,48% para NDIN, ADIN, FND y FAD, respectivamente. Las subvaloraciones asociadas para su DE fueron 34,1; 8,79; 4,41 y 0,51%, respectivamente. La DE corregida del NDIN y ADIN (0,743 y 0,728, respectivamente) mostró un aprovechamiento ruminal elevado de estos compuestos, si bien menor al de la PB total (0,85). El estudio de este aprovechamiento sobre los residuos de incubación ruminal a 6 y 72 h demostró, además, una más rápida degradación del ADIN frente al NDIN, así como un mayor potencial de degradación de este último en este alimento. Para comprobar si la digestión en el abomaso eliminaba la contaminación microbiana en la FND y FAD se estudio esta contaminación y sus posibles errores en muestras liofilizadas de contenidos ruminales y duodenales correspondientes a una dieta mixta de similar composición a la utilizada en el experimento 2, comparándose, además, las diferencias entre la extracción secuencial o directa de la FAD. Utilizando como referencia las BAS se apreciaron elevadas contaminaciones en la FND y FAD y su N asociado tanto en las muestras ruminales como en las duodenales. Sin embargo, los resultados de enriquecimiento en 15N de las partículas fueron intermedios entre los correspondientes a BAS y BAL lo que evidencia una elevada contaminación con BAL en estas muestras probablemente durante el proceso de liofilización. Ello conlleva una sobrevaloración de esta estimación. El método de extracción directa de FAD se mostró, por otra parte, marcadamente menos eficaz en la eliminación de la contaminación microbiana. Los resultados muestran la necesidad de corregir la contaminación microbiana para obtener estimaciones precisas de la degradabilidad de las proteínas de las paredes celulares vegetales. Estos errores deberían ser también considerados para FND y FAD en estudios in situ e in vivo. La elevada tasa fraccional de degradación del grano de trigo (60,9 y 42,0%/h para MS y PB, respectivamente) implico que su flujo de material indegradado (calculado solo en base a la kp obtenida para la harina de girasol) se redujera muy rápidamente, de forma que es casi nulo a 8 h tras la ingestión. Los valores corregidos de PB digerida en el intestino (0,15) representan solo el 18,7% de la proteína metabolizable, lo que muestra que el valor proteico del grano de trigo está estrechamente ligado a la síntesis de proteína microbiana derivada de su fermentación. En el experimento 2 se observaron menores concentraciones para materia orgánica, lípidos y PB, así como en la proporción N-AAs/N total en BAL que en BAS, siendo, por el contrario, mayor su enriquecimiento en 15N. Estos últimos resultados se utilizaron (junto con los de otros trabajos previos de este equipo) para validar una predicción preexistente del enriquecimiento en 15N de las BAS a partir de este valor en las BAL. Esta ecuación, de muy alta precisión (R2 = 0.995), permite calcular la subvaloración que se comete en los aportes de nutrientes correspondientes a las BAS al usar las BAL como muestra de referencia. Esta subvaloración representa aproximadamente 21, 32,5 y 60% para PB, proteína verdadera y lípidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El problema de la concentración de tensiones en las proximidades de las cabezas de anclaje ha sido tratado utilizando diversos procedimientos basados en la teoría de la elasticidad, tanto en el caso de anclajes en bloques extremos de vigas pretensadas, como en anclajes pasivos incluidos dentro del material, ya sea este hormigón o suelo en el caso de tablestacas. Los procedimientos más utilizados envuelven un elevado grado de aproximación ante la necesidad de reducir un problema de esta complejidad a los niveles normales en la ingeniería. El presente trabajo analiza el problema bajo dos ópticas diferentes: Primero, un estudio analítico de las tensiones en las proximidades de un anclaje sumergido dentro de un medio cuyos contornos libres se encuentran alejados de él; en segundo lugar se estudia el problema utilizando un método numérico, el Método de los Elementos de Contorno, que hace posible la obtención de la solución no sólo en tensiones sino en desplazamientos y permite tener en cuenta el espesor real de la placa de anclaje, la existencia de bordes libres próximos a un anclaje incluida en el material o el caso de anclajes en los bloques extremos de vigas. El método de los elementos de contorno está siendo objeto de atención en los últimos años por parte de investigadores de muchos países y sus características lo hacen muy indicado frente al método de los Elementos Finitos para problemas como este donde existen zonas de concentración de tensiones o grandes zonas que modelar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Separated transitional boundary layers appear on key aeronautical processes such as the flow around wings or turbomachinery blades. The aim of this thesis is the study of these flows in representative scenarios of technological applications, gaining knowledge about phenomenology and physical processes that occur there and, developing a simple model for scaling them. To achieve this goal, experimental measurements have been carried out in a low speed facility, ensuring the flow homogeneity and a low disturbances level such that unwanted transitional mechanisms are avoided. The studied boundary layers have been developed on a flat plate, by imposing a pressure gradient by means of contoured walls. They generate an initial acceleration region followed by a deceleration zone. The initial region is designed to obtain at the beginning of the deceleration the Blasius profile, characterized by its momentum thickness, and an edge boundary layer velocity, defining the problem characteristic velocity. The deceleration region is designed to obtain a linear evolution of the edge velocity, thereby defining the characteristic length of the problem. Several experimental techniques, both intrusive (hot wire anemometry, total pressure probes) as nonintrusive (PIV and LDV anemometry, high-speed filming), have been used in order to take advantage of each of them and allow cross-validation of the results. Once the boundary layer at the deceleration beginning has been characterized, ensuring the desired integral parameters and level of disturbance, the evolution of the laminar boundary layer up to the point of separation is studied. It has been compared with integral methods, and numerical simulations. In view of the results a new model for this evolution is proposed. Downstream from the separation, the flow near to the wall is configured as a shear layer that encloses low momentum recirculating fluid. The region where the shear layer remains laminar tends to be positioned to compensate the adverse pressure gradient associated with the imposed deceleration. Under these conditions, the momentum thickness remains almost constant. This laminar shear layer region extends up to where transitional phenomena appear, extension that scales with the momentum thickness at separation. These transitional phenomena are of inviscid type, similar to those found in free shear layers. The transitional region analysis begins with a study of the disturbances evolution in the linear growth region and the comparison of experimental results with a numerical model based on Linear Stability Theory for parallel flows and with data from other authors. The results’ coalescence for both the disturbances growth and the excited frequencies is stated. For the transition final stages the vorticity concentration into vortex blobs is found, analogously to what happens in free shear layers. Unlike these, the presence of the wall and the pressure gradient make the large scale structures to move towards the wall and quickly disappear under certain circumstances. In these cases, the recirculating flow is confined into a closed region saying the bubble is closed or the boundary layer reattaches. From the reattachment point, the fluid shows a configuration in the vicinity of the wall traditionally considered as turbulent. It has been observed that existing integral methods for turbulent boundary layers do not fit well to the experimental results, due to these methods being valid only for fully developed turbulent flow. Nevertheless, it has been found that downstream from the reattachment point the velocity profiles are self-similar, and a model has been proposed for the evolution of the integral parameters of the boundary layer in this region. Finally, the phenomenon known as bubble burst is analyzed. It has been checked the validity of existing models in literature and a new one is proposed. This phenomenon is blamed to the inability of the large scale structures formed after the transition to overcome with the adverse pressure gradient, move towards the wall and close the bubble. El estudio de capas límites transicionales con separación es de gran relevancia en distintas aplicaciones tecnológicas. Particularmente, en tecnología aeronáutica, aparecen en procesos claves, tales como el flujo alrededor de alas o álabes de turbomaquinaria. El objetivo de esta tesis es el estudio de estos flujos en situaciones representativas de las aplicaciones tecnológicas, ganando por un lado conocimiento sobre la fenomenología y los procesos físicos que aparecen y, por otra parte, desarrollando un modelo sencillo para el escalado de los mismos. Para conseguir este objetivo se han realizado ensayos en una instalación experimental de baja velocidad específicamente diseñada para asegurar un flujo homogéneo y con bajo nivel de perturbaciones, de modo que se evita el disparo de mecanismos transicionales no deseados. La capa límite bajo estudio se ha desarrollado sobre una placa plana, imponiendo un gradiente de presión a la misma por medio de paredes de geometría especificada. éstas generan una región inicial de aceleración seguida de una zona de deceleración. La región inicial se diseña para tener en al inicio de la deceleración un perfil de capa límite de Blasius, caracterizado por su espesor de cantidad de movimiento, y una cierta velocidad externa a la capa límite que se considera la velocidad característica del problema. La región de deceleración está concebida para que la variación de la velocidad externa a la capa límite sea lineal, definiendo de esta forma una longitud característica del problema. Los ensayos se han realizado explotando varias técnicas experimentales, tanto intrusivas (anemometría de hilo caliente, sondas de presión total) como no intrusivas (anemometrías láser y PIV, filmación de alta velocidad), de cara a aprovechar las ventajas de cada una de ellas y permitir validación cruzada de resultados entre las mismas. Caracterizada la capa límite al comienzo de la deceleración, y garantizados los parámetros integrales y niveles de perturbación deseados se procede al estudio de la zona de deceleración. Se presenta en la tesis un análisis de la evolución de la capa límite laminar desde el inicio de la misma hasta el punto de separación, comparando con métodos integrales, simulaciones numéricas, y proponiendo un nuevo modelo para esta evolución. Aguas abajo de la separación, el flujo en las proximidades de la pared se configura como una capa de cortadura que encierra una región de fluido recirculatorio de baja cantidad de movimiento. Se ha caracterizado la región en que dicha capa de cortadura permanece laminar, encontrando que se posiciona de modo que compensa el gradiente adverso de presión asociado a la deceleración de la corriente. En estas condiciones, el espesor de cantidad de movimiento permanece prácticamente constante y esta capa de cortadura laminar se extiende hasta que los fenómenos transicionales aparecen. Estos fenómenos son de tipo no viscoso, similares a los que aparecen en una capa de cortadura libre. El análisis de la región transicional comienza con un estudio de la evolución de las vii viii RESUMEN perturbaciones en la zona de crecimiento lineal de las mismas y la comparación de los resultados experimentales con un modelo numérico y con datos de otros autores. La coalescencia de los resultados tanto para el crecimiento de las perturbaciones como para las frecuencias excitadas queda demostrada. Para los estadios finales de la transición se observa la concentración de la vorticidad en torbellinos, de modo análogo a lo que ocurre en capas de cortadura libres. A diferencia de estas, la presencia de la pared y del gradiente de presión hace que, bajo ciertas condiciones, la gran escala se desplace hacia la pared y desaparezca rápidamente. En este caso el flujo recirculatorio queda confinado en una región cerrada y se habla de cierre de la burbuja o readherencia de la capa límite. A partir del punto de readherencia se tiene una configuración fluida en las proximidades de la pared que tradicionalmente se ha considerado turbulenta. Se ha observado que los métodos integrales existentes para capas límites turbulentas no ajustan bien a las medidas experimentales realizadas, hecho imputable a que no se obtiene en dicha región un flujo turbulento plenamente desarrollado. Se ha encontrado, sin embargo, que pasado el punto de readherencia los perfiles de velocidad próximos a la pared son autosemejantes entre sí y se ha propuesto un modelo para la evolución de los parámetros integrales de la capa límite en esta región. Finalmente, el fenómeno conocido como “estallido” de la burbuja se ha analizado. Se ha comprobado la validez de los modelos existentes en la literatura y se propone uno nuevo. Este fenómeno se achaca a la incapacidad de la gran estructura formada tras la transición para vencer el gradiente adverso de presión, desplazarse hacia la pared y cerrar la burbuja.