998 resultados para Santiago el Mayor , Santo-Panegíricos
Resumo:
Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.
Resumo:
Contiene: Romance ; A la conquista de Menorca por las Armas Catholicas : Oda ; Al denuedo y constancia con que peleó el Navio Santo Domingo el dia 16 de Enero de 1780 : Oda
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
Fecha de la licencia: 1715
Resumo:
La necesidad de desarrollar técnicas para predecir la respuesta vibroacústica de estructuras espaciales lia ido ganando importancia en los últimos años. Las técnicas numéricas existentes en la actualidad son capaces de predecir de forma fiable el comportamiento vibroacústico de sistemas con altas o bajas densidades modales. Sin embargo, ambos rangos no siempre solapan lo que hace que sea necesario el desarrollo de métodos específicos para este rango, conocido como densidad modal media. Es en este rango, conocido también como media frecuencia, donde se centra la presente Tesis doctoral, debido a la carencia de métodos específicos para el cálculo de la respuesta vibroacústica. Para las estructuras estudiadas en este trabajo, los mencionados rangos de baja y alta densidad modal se corresponden, en general, con los rangos de baja y alta frecuencia, respectivamente. Los métodos numéricos que permiten obtener la respuesta vibroacústica para estos rangos de frecuencia están bien especificados. Para el rango de baja frecuencia se emplean técnicas deterministas, como el método de los Elementos Finitos, mientras que, para el rango de alta frecuencia las técnicas estadísticas son más utilizadas, como el Análisis Estadístico de la Energía. En el rango de medias frecuencias ninguno de estos métodos numéricos puede ser usado con suficiente precisión y, como consecuencia -a falta de propuestas más específicas- se han desarrollado métodos híbridos que combinan el uso de métodos de baja y alta frecuencia, intentando que cada uno supla las deficiencias del otro en este rango medio. Este trabajo propone dos soluciones diferentes para resolver el problema de la media frecuencia. El primero de ellos, denominado SHFL (del inglés Subsystem based High Frequency Limit procedure), propone un procedimiento multihíbrido en el cuál cada subestructura del sistema completo se modela empleando una técnica numérica diferente, dependiendo del rango de frecuencias de estudio. Con este propósito se introduce el concepto de límite de alta frecuencia de una subestructura, que marca el límite a partir del cual dicha subestructura tiene una densidad modal lo suficientemente alta como para ser modelada utilizando Análisis Estadístico de la Energía. Si la frecuencia de análisis es menor que el límite de alta frecuencia de la subestructura, ésta se modela utilizando Elementos Finitos. Mediante este método, el rango de media frecuencia se puede definir de una forma precisa, estando comprendido entre el menor y el mayor de los límites de alta frecuencia de las subestructuras que componen el sistema completo. Los resultados obtenidos mediante la aplicación de este método evidencian una mejora en la continuidad de la respuesta vibroacústica, mostrando una transición suave entre los rangos de baja y alta frecuencia. El segundo método propuesto se denomina HS-CMS (del inglés Hybrid Substructuring method based on Component Mode Synthesis). Este método se basa en la clasificación de la base modal de las subestructuras en conjuntos de modos globales (que afectan a todo o a varias partes del sistema) o locales (que afectan a una única subestructura), utilizando un método de Síntesis Modal de Componentes. De este modo es posible situar espacialmente los modos del sistema completo y estudiar el comportamiento del mismo desde el punto de vista de las subestructuras. De nuevo se emplea el concepto de límite de alta frecuencia de una subestructura para realizar la clasificación global/local de los modos en la misma. Mediante dicha clasificación se derivan las ecuaciones globales del movimiento, gobernadas por los modos globales, y en las que la influencia del conjunto de modos locales se introduce mediante modificaciones en las mismas (en su matriz dinámica de rigidez y en el vector de fuerzas). Las ecuaciones locales se resuelven empleando Análisis Estadístico de Energías. Sin embargo, este último será un modelo híbrido, en el cual se introduce la potencia adicional aportada por la presencia de los modos globales. El método ha sido probado para el cálculo de la respuesta de estructuras sometidas tanto a cargas estructurales como acústicas. Ambos métodos han sido probados inicialmente en estructuras sencillas para establecer las bases e hipótesis de aplicación. Posteriormente, se han aplicado a estructuras espaciales, como satélites y reflectores de antenas, mostrando buenos resultados, como se concluye de la comparación de las simulaciones y los datos experimentales medidos en ensayos, tanto estructurales como acústicos. Este trabajo abre un amplio campo de investigación a partir del cual es posible obtener metodologías precisas y eficientes para reproducir el comportamiento vibroacústico de sistemas en el rango de la media frecuencia. ABSTRACT Over the last years an increasing need of novel prediction techniques for vibroacoustic analysis of space structures has arisen. Current numerical techniques arc able to predict with enough accuracy the vibro-acoustic behaviour of systems with low and high modal densities. However, space structures are, in general, very complex and they present a range of frequencies in which a mixed behaviour exist. In such cases, the full system is composed of some sub-structures which has low modal density, while others present high modal density. This frequency range is known as the mid-frequency range and to develop methods for accurately describe the vibro-acoustic response in this frequency range is the scope of this dissertation. For the structures under study, the aforementioned low and high modal densities correspond with the low and high frequency ranges, respectively. For the low frequency range, deterministic techniques as the Finite Element Method (FEM) are used while, for the high frequency range statistical techniques, as the Statistical Energy Analysis (SEA), arc considered as more appropriate. In the mid-frequency range, where a mixed vibro-acoustic behaviour is expected, any of these numerical method can not be used with enough confidence level. As a consequence, it is usual to obtain an undetermined gap between low and high frequencies in the vibro-acoustic response function. This dissertation proposes two different solutions to the mid-frequency range problem. The first one, named as The Subsystem based High Frequency Limit (SHFL) procedure, proposes a multi-hybrid procedure in which each sub-structure of the full system is modelled with the appropriate modelling technique, depending on the frequency of study. With this purpose, the concept of high frequency limit of a sub-structure is introduced, marking out the limit above which a substructure has enough modal density to be modelled by SEA. For a certain analysis frequency, if it is lower than the high frequency limit of the sub-structure, the sub-structure is modelled through FEM and, if the frequency of analysis is higher than the high frequency limit, the sub-structure is modelled by SEA. The procedure leads to a number of hybrid models required to cover the medium frequency range, which is defined as the frequency range between the lowest substructure high frequency limit and the highest one. Using this procedure, the mid-frequency range can be define specifically so that, as a consequence, an improvement in the continuity of the vibro-acoustic response function is achieved, closing the undetermined gap between the low and high frequency ranges. The second proposed mid-frequency solution is the Hybrid Sub-structuring method based on Component Mode Synthesis (HS-CMS). The method adopts a partition scheme based on classifying the system modal basis into global and local sets of modes. This classification is performed by using a Component Mode Synthesis, in particular a Craig-Bampton transformation, in order to express the system modal base into the modal bases associated with each sub-structure. Then, each sub-structure modal base is classified into global and local set, fist ones associated with the long wavelength motion and second ones with the short wavelength motion. The high frequency limit of each sub-structure is used as frequency frontier between both sets of modes. From this classification, the equations of motion associated with global modes are derived, which include the interaction of local modes by means of corrections in the dynamic stiffness matrix and the force vector of the global problem. The local equations of motion are solved through SEA, where again interactions with global modes arc included through the inclusion of an additional input power into the SEA model. The method has been tested for the calculation of the response function of structures subjected to structural and acoustic loads. Both methods have been firstly tested in simple structures to establish their basis and main characteristics. Methods are also verified in space structures, as satellites and antenna reflectors, providing good results as it is concluded from the comparison with experimental results obtained in both, acoustic and structural load tests. This dissertation opens a wide field of research through which further studies could be performed to obtain efficient and accurate methodologies to appropriately reproduce the vibro-acoustic behaviour of complex systems in the mid-frequency range.
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Actualmente existen dos tipos de terapias aplicada en tejido subcutáneo: mediante inyección múltiple realizada con plumas, y la otra es mediante infusión continua de insulina por bomba (CSII). El mayor problema de esta terapia son los retardos por la absorción, tanto de los carbohidratos como de la insulina, y los retardos introducidos por el sensor subcutáneo de glucosa que mide la glucosa del líquido intersticial, lo deseable es controlar la glucosa en sangre. Para intentar independizar al paciente de su enfermedad se está trabajando en el desarrollo del páncreas endocrino artificial (PEA) que dotaría al paciente de una bomba de insulina, un sensor de glucosa y un controlador, el cual se encargaría de la toma de decisiones de las infusiones de insulina. Este proyecto persigue el diseño de un regulador en modo de funcionamiento en CL, con el objetivo de conseguir una regulación óptima del nivel de glucosa en sangre. El diseño de dicho regulador va a ser acometido utilizando la teoría del control por modelo interno (IMC). Esta teoría se basa en la idea de que es necesario realimentar la respuesta de un modelo aproximado del proceso que se quiere controlar. La salida del modelo, comparada con la del proceso real nos da la incertidumbre del modelo de la planta, frente a la planta real. Dado que según la teoría del modelo interno, estas diferencias se dan en las altas frecuencias, la teoría IMC propone un filtro paso bajo como regulador en serie con la inversa del modelo de la planta para conseguir el comportamiento deseado. Además se pretende implementar un Predictor Smith para minimizar los efectos del retardo de la medida del sensor. En el proyecto para conseguir la viabilidad del PEA se ha adaptado el controlador IMC clásico utilizando las ganancias estáticas de un modelo de glucosa, a partir de la ruta subcutánea de infusión y la vía subcutánea de medida. El modo de funcionamiento del controlador en SCL mejora el rango de normoglucemia, necesitando la intervención del paciente indicando anticipadamente el momento de las ingestas al controlador. El uso de un control SCL con el Predictor de Smith mejora los resultados pues se añade al controlador una variable sobre las ingestas con la participación del paciente. ABSTRACT. Diabetes mellitus is a group of metabolic diseases in which a person has high blood sugar, due to the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. There are currently two types of therapies applied in subcutaneous tissue: the first one consists in using the intensive therapy with an insulin pen, and the other one is by continuous subcutaneous insulin infusion (CSII). The biggest problems of this therapy are the delays caused by the absorption of carbohydrates and insulin, and the delays introduced by the subcutaneous glucose sensor that measures glucose from interstitial fluid, it is suitable to control glucose blood. To try to improve these patients quality of life, work is being done on the development of an artificial endocrine pancreas (PEA) consisting of a subcutaneous insulin pump, a subcutaneous glucose sensor and an algorithm of glucose control, which would calculate the bolus that the pump would infuse to patient. This project aims to design a controller for closed-loop therapy, with the objective of obtain an optimal regulation of blood glucose level. The design of this controller will be formed using the theory of internal model control (IMC). This theory is based on the uncertainties given by a model to feedback the system control. Output model, in comparison with the actual process gives the uncertainty of the plant model, compared to the real plant. Since the theory of the internal model, these differences occur at high frequencies, the theory proposes IMC as a low pass filter regulator in series with the inverse model of the plant to get the required behavior. In addition, it will implement a Smith Predictor to minimize the effects of the delay measurement sensor. The project for the viability of PEA has adapted the classic IMC controller using the gains static of glucose model from the subcutaneous infusion and subcutaneous measuring. In simulation the SemiClosed-Loop controller get on the normoglycemia range, requiring patient intervention announce the bolus priming connected to intakes. Using an SCL control with the Smith Predictor improves the outcome because a variable about intakes is added to the controller through patient intervention.
Resumo:
La fotosíntesis es el proceso biológico que permite la producción primaria y, por tanto, la vida en nuestro planeta. La tasa fotosintética viene determinada por la ‘maquinaria’ bioquímica y las resistencias difusivas al paso del CO2 desde la atmósfera hasta su fijación en el interior de los cloroplastos. Históricamente la mayor resistencia difusiva se ha atribuido al cierre estomático, sin embargo ahora sabemos, debido a las mejoras en las técnicas experimentales, que existe también una resistencia grande que se opone a la difusión del CO2 desde los espacios intercelulares a los lugares de carboxilación. Esta resistencia, llamada normalmente por su inversa: la conductancia del mesófilo (gm), puede ser igual o incluso superior a la resistencia debida por el cierre estomático. En la presente tesis doctoral he caracterizado la limitación que ejerce la resistencia del mesófilo a la fijación de CO2 en diversas especies forestales y en distintos momentos de su ciclo biológico. En la fase de regenerado, hemos estudiado tres situaciones ambientales relevantes en el mayor éxito de su supervivencia, que son: el déficit hídrico, su interacción con la irradiancia y el paso del crecimiento en la sombra a mayor irradiancia, como puede suceder tras la apertura de un hueco en el dosel forestal. En la fase de arbolado adulto se ha caracterizado el estado hídrico y el intercambio gaseoso en hojas desarrolladas a distinta irradiancia dentro del dosel vegetal durante tres años contrastados en pluviometría. Para cada tipo de estudio se han empleado las técnicas ecofisiológicas más pertinentes para evaluar el estado hídrico y el intercambio gaseoso. Por su complejidad y la falta de un método que permita su cuantificación directa, la gm ha sido evaluada por los métodos más usados, que son: la discriminación isotópica del carbono 13, el método de la J variable, el método de la J constante y el método de la curvatura. Los resultados más significativos permiten concluir que la limitación relativa a la fotosíntesis por la conductancia estomática, del mesófilo y bioquímica es dependiente de la localización de la hoja en el dosel forestal. Por primera vez se ha documentado que bajo estrés hídrico las hojas desarrolladas a la sombra estuvieron más limitadas por una reducción en la gm, mientras que las hojas desarrolladas a pleno sol estuvieron más limitadas por reducción mayor de la conductancia estomática (gsw). Encontramos buena conexión entre el aparato fotosintético foliar y el sistema hídrico debido al alto grado de correlación entre la conductancia hidráulica foliar aparente y la concentración de CO2 en los cloroplastos en distintas especies forestales. Además, hemos mostrado diferentes pautas de regulación del intercambio gaseoso según las particularidades ecológicas de las especies estudiadas. Tanto en brinzales crecidos de forma natural y en el arbolado adulto como en plántulas cultivadas en el invernadero la ontogenia afectó a las limitaciones de la fotosíntesis producidas por estrés hídrico, resultando que las limitaciones estomáticas fueron dominantes en hojas más jóvenes mientras que las no estomáticas en hojas más maduras. La puesta en luz supuso un gran descenso en la gm durante los días siguientes a la transferencia, siendo este efecto mayor según el grado de sombreo previo en el que se han desarrollado las hojas. La aclimatación de las hojas a la alta irradiancia estuvo ligada a las modificaciones anatómicas foliares y al estado de desarrollo de la hoja. El ratio entre la gm/gsw determinó la mayor eficiencia en el uso del agua y un menor estado oxidativo durante la fase de estrés hídrico y su posterior rehidratación, lo cual sugiere el uso de este ratio en los programas de mejora genética frente al estrés hídrico. Debido a que la mayoría de modelos de estimación de la producción primaria bruta (GPP) de un ecosistema no incluye la gm, los mismos están incurriendo en una sobreestimación del GPP particularmente bajo condiciones de estrés hídrico, porque más de la mitad de la reducción en fotosíntesis en hojas desarrolladas a la sombra se debe a la reducción en gm. Finalmente se presenta un análisis de la importancia en las estimas de la gm bajo estrés hídrico de la refijación del CO2 emitido en la mitocondria a consecuencia de la fotorrespiración y la respiración mitocondrial en luz. ABSTRACT Photosynthesis is the biological process that supports primary production and, therefore, life on our planet. Rates of photosynthesis are determined by biochemical “machinery” and the diffusive resistance to the transfer of CO2 from the atmosphere to the place of fixation within the chloroplasts. Historically the largest diffusive resistance was attributed to the stomata, although we now know via improvements in experimental techniques that there is also a large resistance from sub-stomatal cavities to sites of carboxylation. This resistance, commonly quantified as mesophyll conductance (gm), can be as large or even larger than that due to stomatal resistance. In the present PhD I have characterized the limitation exerted by the mesophyll resistance to CO2 fixation in different forest species at different stages of their life cycle. In seedlings, we studied three environmental conditions that affect plant fitness, namely, water deficit, the interaction of water deficit with irradiance, and the transfer of plants grown in the shade to higher irradiance as can occur when a gap opens in the forest canopy. At the stage of mature trees we characterized water status and gas exchange in leaves developed at different irradiance within the canopy over the course of three years that had contrasting rainfall. For each study we used the most relevant ecophysiological techniques to quantify water relations and gas exchange. Due to its complexity and the lack of a method that allows direct quantification, gm was estimated by the most commonly used methods which are: carbon isotope discrimination, the J-variable, constant J and the curvature method The most significant results suggest that the relative limitation of photosynthesis by stomata, mesophyll and biochemistry depending on the position of the leaf within the canopy. For the first time it was documented that under water stress shaded leaves were more limited by a reduction in gm, while the sun-adapted leaves were more limited by stomatal conductance (gsw). The connection between leaf photosynthetic apparatus and the hydraulic system was shown by the good correlations found between the apparent leaf hydraulic conductance and the CO2 concentration in the chloroplasts in shade- and sun-adapted leaves of several tree species. In addition, we have revealed different patterns of gas exchange regulation according to the functional ecology of the species studied. In field grown trees and greenhouse-grown seedlings ontogeny affected limitations of photosynthesis due to water stress with stomatal limitations dominating in young leaves and nonstomatal limitations in older leaves. The transfer to high light resulted in major decrease of gm during the days following the transfer and this effect was greater as higher was the shade which leaves were developed. Acclimation to high light was linked to the leaf anatomical changes and the state of leaf development. The ratio between the gm/gsw determined the greater efficiency in water use and reduced the oxidative stress during the water stress and subsequent rehydration, suggesting the use of this ratio in breeding programs aiming to increase avoidance of water stress. Because most models to estimate gross primary production (GPP) of an ecosystem do not include gm, they are incurring an overestimation of GPP particularly under conditions of water stress because more than half of An decrease in shade-developed leaves may be due to reduction in gm. Finally, we present an analysis of the importance of how estimates of gm under water stress are affected by the refixation of CO2 that is emitted from mitochondria via photorespiration and mitochondrial respiration in light.
Resumo:
Sign. : [A]-C4
Resumo:
El laboreo de conservación (Mínimo Laboreo, ML; No Laboreo, NL) y la rotación de cultivos están consideradas como Buenas Prácticas Agrícolas, y contribuyen a mejorar las propiedades físicas y la fertilidad del suelo, así como a reducir el empleo de algunos insumos agrarios (Follet y Schimel 1989). Sin embargo, existe gran controversia sobre el efecto de estas prácticas sobre las emisiones de Gases de Efecto Invernadero (GEI), a las que la agricultura contribuye en un 13.5 %, siendo normalmente el óxido nitroso (N2O) el mayor determinante del Poder de Calentamiento Global derivado de los agrosistemas (IPCC, 2006). La variabilidad de resultados y la escasez de estudios en zonas mediterráneas, especialmente sobre el efecto de la rotación de cultivos, justifican la necesidad de nuevos estudios sobre este tema. El objetivo principal de este ensayo ha sido evaluar la influencia de las prácticas de laboreo de conservación frente al Laboreo Tradicional (LT) mediante vertedera; así como la rotación barbecho - trigo (Tritucum aestivum L. var. ́Marius`) frente a monocultivo de trigo, sobre las emisiones de GEI(N2O, CH4 y CO2) desde el suelo.
Resumo:
La nitrificación-desnitrificación es el proceso biológico tradicional para la remoción de nitrógeno de las aguas residuales (Ruiz G. et al., 2006a), siendo fundamental ya que contribuye a controlar la eutroficación de los cuerpos receptores. Debido al deterioro que sobre la disponibilidad de los recursos han ejercido las actividades antropogénicas, es necesario orientar el tratamiento de las aguas residuales hacia tecnologías que ofrezcan el mayor grado de sustentabilidad, planteando innovaciones en el tratamiento. El presente proyecto de tesis doctoral versa sobre el estudio de la influencia de la relación C/N en la desnitrificación y metanogénesis de aguas residuales urbanas en un reactor anaeróbico de lecho fluidizado inverso (RLFI). Previamente a la realización de las pruebas experimentales de variación de la relación C/N, se llevó a cabo la etapa de arranque del RLFI la cual se inició en modo batch, favoreciendo la formación y adhesión de biopelícula al medio de soporte utilizado (Extendosphere). Después, sobrevino la operación en modo continuo desde una carga volumétrica aplicada (CVA) de 0.5 g DQOs/L⋅d hasta alcanzar 4 g DQOs/L⋅d, carga volumétrica a la cual se logró la plena estabilización del reactor, siendo la alta variabilidad de la concentración de DQOs en el agua residual urbana de alimentación, la principal problemática que ocasionó retrasos en la estabilidad del reactor. A una CVA de 4 g DQOs/L⋅d en estado estacionario, el valor mínimo de eficiencia de remoción de DQOs fue del 32.36% y el máximo de 66.99%. En estas condiciones el porcentaje de metano presente en el biogás producido tuvo un valor medio de 85.57 ± 2.93%, siendo un valor alto comparado con otros porcentajes de metano encontrados en la digestión anaerobia de aguas residuales urbanas. El YCH4 tuvo un valor medio de 0.316 ± 0.110 LCH4/g DQOrem⋅día. Los porcentajes de metanización variaron en el rango de 20.50 a 100%, registrándose un valor medio de 73.42 ± 25.63%. La considerable variabilidad en el porcentaje de metanización se debió principalmente a que se presentaron eventos de lavado de soporte colonizado, lo cual propició que las actividades metabólicas fueran orientadas hacia formación de biopelícula (anabolismo) en vez de estar dirigidas hacia producción de metano (catabolismo). En relación a los ensayos con variación de la relación C/N, se manejaron relaciones DQOs/N-NO3 en el rango de 1.65 a 21.1 g DQOs/g N-NO3. La tasa de remoción anaerobia de DQOs se incrementó con la concentración de sustrato en una relación casi lineal, ajustándose a una cinética de primer orden, lo que regularmente se presenta a concentraciones bajas de sustrato. La eficiencia del proceso de desnitrificación fue por lo regular alta, incrementándose ligeramente con la concentración de DQOs en el influente, con valores en el rango de 73.8 a 99.1%. Por otra parte, la tasa de remoción por metanogénesis se incrementó con la concentración relativa de sustrato (es decir, a mayores relaciones DQOs/N-NO3), siendo más sensitiva la metanogénesis a la concentración relativa de sustrato que la desnitrificación. Conforme aumentó la relación DQOs/N-NO3, la desnitrificación, de ser la ruta metabólica principal de utilización de la materia orgánica (comparada con la metanización), empezó a combinarse con la metanización. De manera evidente, a las relaciones DQOs/N-NO3 probadas, se manifestaron más las actividades desnitrificantes, quedando reflejadas por el alto porcentaje de utilización de la DQOs removida hacia la desnitrificación. La relación experimental DQOs/N-NO3 a la cual se pudiera haber cumplido con el requerimiento de materia orgánica (en términos de DQOs) para la desnitrificación de nitratos en las aguas residuales urbanas tratadas resultó aproximadamente ser igual a 7.1 g DQOs/g N-NO3. A una CVA de 4 g DQOs/L⋅d, se obtuvo un diámetro promedio máximo de soporte colonizado igual a 266.106 ± 69.279 μm aunque, hay que indicarlo, se presentaron fluctuaciones, las cuales se reflejaron también en el espesor de la biopelícula, el cual tuvo un valor máximo de 50.099 μm y un valor promedio de 37.294 ± 11.199 μm. Estas fluctuaciones pudieron deberse a la existencia de corrientes preferenciales dentro del reactor, las cuales no permitieron un acceso equitativo del sustrato a todo el lecho. Nitrification-denitrification is the traditional biological process for nitrogen removal from wastewaters (Ruiz G. et al., 2006a), being fundamental since it contributes to control the eutrophication of the receiving waters. Due to the deterioration that on the availability of the aquatic resources the anthropogenic activities have exerted, it is necessary to orient the treatment of wastewaters towards technologies that offer the greater degree of sustainability, raising innovations in the treatment. This work studied the influence of C/N ratio on denitrification and methanogenesis of urban wastewaters in an inverse fluidized bed reactor (IFBR). Previously to the accomplishment of the experimental tests with variation of C/N ratio, the start up of the IFBR was carried out in batch way, encouraging the formation and adhesion of biofilm to Extendosphere, which it was used as support. The operation in continuous way carried out from an organic loading rate (OLR) of 0.5 g CODs/L ∙ d to 4 g CODs/L ∙ d, when the steady-state was reached. The high variability of the CODs of the urban wastewaters caused delays in the stability of the reactor. Once stationary state was reached, the removal efficiency of CODs ranged from 32.36 to 66.99% to 4 g CODs/L ∙ d. In these conditions the percentage of methane in produced biogas had an average value of 85.57 ± 2.93%, being a high value compared with other studies treating anaerobically urban wastewaters. The YCH4 had an average value of 0.316 ± 0.110 LCH4/g CODrem ∙ d. The percentage of methanisation ranged from 20.50 to 100%, with an average value of 73.42 ± 25.63%. The considerable variability in the methanisation percentage occurred mainly due events of wash-out of colonized support, which caused that the metabolic activities were oriented towards formation of biofilm (anabolism) instead of methane production (catabolism). Concerning the tests with variation of C/N ratio, CODs/NO3-N ratios from 1.65 to 21.1 g CODs/g NO3-N were proved. The CODs anaerobic removal rate increased with the substrate concentration in an almost linear relation, adjusting to a kinetic of first order, which regularly appears to low concentrations of substrate. Efficiency of the denitrification process was regularly high, and it increased slightly with the CODs concentration in the influent, ranging from 73.8 to 99.1%. On the other hand, the CODs removal rate by methanogenesis increased with the substrate relative concentration (e.g., to greater CODs/NO3-N ratios), being more sensitive the methanogenesis to the substrate relative concentration that the denitrification. When the CODs/NO3-N ratio increased, the denitrification, of being the main metabolic route of use of the organic matter (compared with the methanogenesis), began to be combined with the methanogenesis. Definitively, to the proven CODs/NO3-N ratios the denitrification processes were more pronounced, being reflected by the high percentage of use of the removed CODs towards denitrification. The experimental CODs/NO3-N ratio to which it was possible to have been fulfilled the requirement of organic matter (in terms of CODs) for the denitrification of nitrates in urban wastewaters turned out to be approximately 7.1 g CODs/g NO3-N. It was obtained a maximum average diameter of colonized support of 266.106 ± 69.279 μm to 4 g CODs/L ∙ d, although it is necessary to indicate that appeared fluctuations in the thickness of biofilm, which had a maximum value of 50.099 μm and an average value of 37.294 ± 11.199 μm. These fluctuations could be due to the existence of preferential currents within the reactor, which did not allow an equitable access of the substrate to all the bed.
Resumo:
En la misma lámina se reproduce las cuatro estampas
Resumo:
Debido al futuro incierto de la mayor parte de los fumigantes edáficos usados actualmente en la Unión Europea, que pueden implicar riesgos para la salud humana/animal y el medio ambiente, es necesario desarrollar programas de manejo integrado para el control de plagas de cultivos. Estos programas se incluyen como obligatorios en el Reglamento (EC) No. 1107/2009. De acuerdo con este Reglamento, es obligatoria la evaluación del riesgo asociado al uso de productos fitosanitarios sobre los organismos edáficos no diana y sus funciones, además de llevar a cabo ensayos con diferentes especies indicadoras para obtener datos de toxicidad que puedan ser usados posteriormente en la evaluación de riesgo. Sin embargo, la baja representatividad de algunas de estas especies indicadoras en el área Mediterránea supone una gran limitación. En esta situación, el Panel Científico de Productos Fitosanitarios y sus Residuos de la Autoridad Europea en Seguridad Alimentaria (EFSA), ha señalado la necesidad de modificar los datos ecotoxicológicos requeridos para evaluar los efectos adversos de los productos fitosanitarios de una manera más integrada, incluyendo criterios funcionales y estructurales mediante organismos como bacterias, hongos, protozoos y nematodos. De este modo, la EFSA ha recomendado el uso de los nematodos en la evaluación de la funcionalidad y estructura del suelo. Los nematodos están globalmente distribuidos y son morfológicamente diversos; esto junto con su gran abundancia y diversidad de respuestas a las perturbaciones edáficas, los convierte en indicadores adecuados del estado del suelo. Puesto que los nematodos interaccionan con muchos otros organismos que participan en diferentes eslabones de la red trófica edáfica, jugando papeles importantes en procesos edáficos esenciales en los agroescosistemas, la diversidad de nematodos es, a menudo, usada como indicador biológico de los efectos de las prácticas agrícolas en el estado del suelo. En los últimos años, diferentes índices basados en la comunidad nematológica han facilitado la interpretación de datos complejos sobre la ecología del suelo. Los índices de la red trófica edáfica, basados en la abundancia de grupos funcionales definidos como grupos C-P y grupos tróficos, permiten la evaluación de la funcionalidad de la red trófica edáfica. Por otra parte, la dificultad en la identificación taxonómica de nematodos para explicar su uso limitado como indicadores ecológicos, es ampliamente discutida, y existe cierta controversia en cuanto a la eficacia de los diferentes métodos de identificación de nematodos. Se argumenta que la identificación morfológica es difícil y puede llevar mucho tiempo debido a la falta de expertos especializados, y se afirma que las técnicas moleculares pueden resolver algunas limitaciones de las técnicas morfológicas como la identificación de juveniles. Sin embargo, los métodos de identificación molecular tienen también limitaciones; la mayoría de las bases de datos de secuencias de ADN están fuertemente orientadas hacia los nematodos fitoparásitos, los cuales representan sólo una parte de la comunidad edáfica de nematodos, mientras que hay poca información disponible de nematodos de vida libre a pesar de representar la mayoría de los nematodos edáficos. Este trabajo se centra en el estudio de los efectos de fumigantes edáficos en la funcionalidad del suelo a través del uso de diferentes indicadores basados en la comunidad de nematodos, como los índices de la red trófica, índices de diversidad, abundancia de los taxones más relevantes etc. También se han analizado otros indicadores funcionales relacionados con la supresividad edáfica, el ciclo de nutrientes o la actividad de la microfauna del suelo. En el capítulo 1, la diversidad de nematodos estudiada en una explotación comercial de fresa y sus alrededores durante dos campañas consecutivas en el suroeste español, fue baja en los suelos fumigados con fumigantes químicos ambas campañas y, aunque se observó una recuperación a lo largo de la campaña en la zona tratada, los suelos fumigados mostraron una condición perturbada permanente. La comunidad de nematodos estuvo más asociada al ciclo de nutrientes en la zona sin cultivar que en los suelos cultivados, y se observó poca relación entre la biomasa de las plantas y la estructura de la comunidad de nematodos. Los surcos sin tratar dentro de la zona de cultivo funcionaron como reservorio tanto de nematodos fitoparásitos como beneficiosos; sin embargo estas diferencias entre los surcos y los lomos de cultivo no fueron suficientes para mantener la supresividad edáfica en los surcos. Los suelos tratados fueron menos supresivos que los suelos sin tratar, y se observaron correlaciones positivas entre la supresividad edáfica y la estructura de la red trófica edáfica y la diversidad de nematodos. En el capítulo 2, se evaluaron los efectos de dos pesticidas orgánicos con efecto nematicida y dos nematicidas convencionales sobre las propiedades físico químicas del suelo, la diversidad de nematodos y la biomasa de las plantas en condiciones experimentales en dos tipos de suelo: suelos agrícolas poco diversos y suelos provenientes de una zona de vegetación natural muy diversos. El mayor efecto se observó en el tratamiento con neem, el cual indujo un gran incremento en el número de dauerlarvas en los suelos pobres en nutrientes, mientras que el mismo tratamiento indujo un incremento de poblaciones de nematodos bacterívoros, más estables y menos oportunistas, en los suelos del pinar ricos en materia orgánica. En el capítulo 3, se comparó la eficacia de métodos moleculares (TRFLP, Terminal Restriction Fragment Length Polymorphism) y morfológicos (microscopía de alta resolución) para la identificación de diferentes comunidades denematodos de España e Irlanda. Se compararon estadísticamente las diferencias y similitudes en la diversidad de nematodos, otros indicadores ecológicos y de la red trófica edáfica. Las identificaciones mediante el uso de TRFLP sólo detectó un porcentaje de los taxones presentes en las muestras de suelo identificadas morfológicamente, y los nematodos omnívoros y predadores no fueron detectados molecularmente en nuestro estudio. Los índices calculados en base a los nematodos micróboros mostraron más similitud cuando se identificaron morfológica y molecularmente que los índices basados en grupos tróficos más altos. Nuestros resultados muestran que, al menos con la técnica usada en este estudio, la identificación morfológica de nematodos es una herramienta fiable y más precisa que la identificación molecular, puesto que en general se obtiene una mayor resolución en la identificación de nematodos. En el capítulo 4, se estudiaron también los efectos de los nematicidas químicos sobre la comunidad de nematodos y la biomasa de las plantas en condiciones experimentales de campo, donde se aplicaron en una rotación de cultivo judía-col durante un ciclo de cultivo. Se aplicaron dos tipos de enmiendas orgánicas con el objetivo de mitigar el efecto negativo de los productos fitosanitarios sobre la diversidad edáfica. El efecto de los nematicidas sobre las propiedades del suelo y sobre la comunidad de nematodos fue más agudo que el efecto de las enmiendas. La incorporación de los restos de cosecha al final del ciclo de cultivo de la judía tuvo un gran efecto sobre la comunidad de nematodos, y aunque el número total de nematodos incrementó al final del experimento, se observó una condición perturbada permanente de la red trófica edáfica a lo largo del experimento. ABSTRACT Due to the uncertain future of the soil fumigants most commonly used in the EU, that might involve risks for human/animal health and the environment, there is a need to develop new integrated pest management programs, included as mandatory in the Regulation (EC) No. 1107/2009, to control crop diseases. According to this Regulation, evaluating the risk associated to the use of the plant production products (PPP) on non-target soil fauna and their function, and developing assays with different indicator species to obtain toxicity data to be used in the risk evaluation is mandatory. However, the low representativeness of some of these indicator species in the Mediterranean area is a relevant limitation. In this situation, the Scientific Panel of Plant Protection Products and their Residues of the European Food Safety Authority (EFSA) has pointed out the necessity of modifying the ecotoxicological data set required to evaluate non-target effects of PPP in a more integrated way, including structural and functional endpoints with organism such as bacteria, fungi, protists and nematodes. Thus, EFSA has recommended the use of nematodes in the assessment of the functional and structural features of the soil. Nematodes are globally distributed and morphologically diverse, and due to their high abundance and diversity of responses to soil disturbance, they are suitable indicators of the soil condition. Since nematodes interact with many other organisms as participants in several links of the soil food web, playing important roles in essential soil processes in agroecosystems, nematode diversity is often used as a biological indicator of the effects of agricultural practices on soil condition. In the last years, various indices based on soil nematode assemblages, have facilitated the interpretation of complex soil ecological data. Soil food web indices based on the abundances of functional guilds defined by C-P groups and trophic groups, permit evaluating soil food web functioning. On the other hand, the difficulty of nematode taxonomical identification is commonly argued to explain their limited used as ecological indicators, and there is a certain controversy in terms of the efficacy of various nematode identification methods. It is argued that the morphological identification is difficult and time consuming due to the lack of specialist knowledge, and it is claimed that molecular techniques can solve some limitations of morphological techniques such as the identification of juveniles. Nevertheless, molecular identification methods are limited too, since most of the DNA-based databases are strongly oriented towards plant-parasitic nematodes that represent only a fraction of the soil nematode community, while there is little information available on free-living nematodes, which represent most soil nematodes. This work focuses on the study of the effects of soil fumigants on soil functioning through the use of different indicators based on soil nematode community as soil food web indices, diversity indices, the abundance of more relevant taxa etc. Other functional indicators related to soil suppressiveness, nutrient cycling, or the activity of soil microfauna have been also studied. In chapter 1, nematode diversity assessed in a commercial strawberry farm and its surroundings for two consecutive growing seasons in southern Spain, was low in fumigated soils with chemical pesticides throughout both seasons and, although yearly recovery occurred within the treated fields, fumigated soils showed a permanent perturbed condition. The nematode community was more closely associated to nutrient cycling in the non-cropped than in the cropped soils, and the link between plant biomass and nematode community structure was weak. Non-treated furrows within the treated fields were a reservoir of both beneficial and plant-parasitic nematodes, but such difference between furrows and beds was not enough to maintain more suppressive soil assemblages in the furrows. Treated soils were less suppressive than unmanaged soils, and there was a positive and significant correlation between soil suppressiveness and soil food web structure and diversity. In chapter 2, the effects of two organic pesticides with nematicide effect and two chemical nematicides on soil physicalchemical properties, soil nematode diversity and plant biomass in experimental conditions were assessed in two types of soils: low diversity soils from an agricultural farm, and high diversity soils from a natural vegetation area. The larger effect was observed on the neem treatment, which induced a large boost of dauer juveniles in the nutrient-depleted soil, while the same treatment induced the increase of more stable, less opportunistic, populations of generalist bacterivore nematodes in the pine forest soil, rich in organic matter. In chapter 3, comparison of the efficiency of molecular (TRFLP, Terminal Restriction Fragment Length Polymorphism) and morphological (microscopy at high magnification) identification methods was carried out in different nematode communities from five sites of different land uses in Spain and Ireland. Differences and similarities on nematode diversity and other ecological and soil food web indices assessed by both methods, were statistically compared. Molecular identification with TRFLP only detected a percentage of the taxa present in the soil samples identified morphologically, and omnivores and predators were not detected molecularly in our study. Indices involving microbial feeding nematodes were more similar between identification methods than indices involving higher trophic links. Our results show that, at least with the technique used in this study, identifying nematodes morphologically is a reliable and more precise identification tool than molecular identification, since a higher taxonomic resolution is in general obtained compared to TRFLP. In chapter 4, the effect of chemical nematicides on nematode community descriptors and plant biomass was also studied in field conditions in an experimental area in which dazomet and dimethyl disulfide was applied in a bean-cabbage rotation system for a single season. Organic amendments were incorporated into the soil with the aim of mitigate the negative effect of the pesticides on soil diversity. The effect of the nematicides was much more noticeable than the effect of the amendments on soil properties and nematode community descriptors. The incorporation of bean crop residues into the soil at the end of bean crop cycle affected soil nematode community descriptors to a great extent, and although total number of nematodes increased at the end of the experiment, a permanent perturbed soil food web condition was observed along the experiment.
Resumo:
Este trabajo trata de verificar si la pobreza está vinculada a los modelos productivos agrícolas de las provincias del país relacionando los niveles de pobreza de cada provincia con sus actividades agrarias principales. Como metodología se ha elegido los principales productos agrícolas sembrados y cosechados para correlacionarlos con la pobreza poblacional. Como resultado podemos decir que el mayor nivel de pobreza está en las provincias que se encuentra en la frontera con Haití, lo que es un indicador influyente. Haití tiene fuentes de ingresos restringidas; en cambio las provincias con un nivel de pobreza menor o media están localizadas al Este y al Norte del país, donde están la fuente del turismo y las siembras y cosechas de los principales cultivos. En conclusión, la identificación de los principales productos agrícolas de la República Dominicana es una buena base de partida para disminuir la pobreza con la generación de fuentes de ingresos para el país.
Integral energy behaviour of photovoltaic semi-transparent glazing elements for building integration
Resumo:
La hipótesis general que esta tesis quiere demostrar es que la integración arquitectónica de sistemas fotovoltaicos semitransparentes (STPV) puede contribuir a mejorar la eficiencia energética de los edificios. Por lo tanto, la investigación se centra en el desarrollo de una metodología capaz de cuantificar la reducción de la demanda energética del edificio proporcionada por estas novedosas soluciones constructivas. Al mismo tiempo, los parámetros de diseño de las soluciones STPV se han analizado para establecer cuales presentan el mayor impacto sobre el balance energético global del edificio y por lo tanto tienen que ser cuidadosamente definidos a la hora de optimizar el comportamiento energético del mismo. A la luz de estos objetivos, la metodología de estudio se ha centrado en tres puntos principales: Caracterizar el comportamiento energético global de sistemas STPV en condiciones de operación realistas, similares a las que se darían en un sistema real; Caracterizar el comportamiento energético global de sistemas STPV en condiciones controladas, con el objetivo de estudiar la variación del comportamiento del los elementos en función de parámetro de diseño y operación; Evaluar el potencial de ahorro energético global de los sistemas STPV en comparación con soluciones acristaladas convencionales al variar de las condiciones de contorno constituidas por los parámetros de diseño (como el grado de transparencia), las características arquitectónicas (como el ratio entre superficie acristalada y superficie opaca en la fachada del edificio) y las condiciones climáticas (cubriendo en particular la climatología europea). En síntesis, este trabajo intenta contribuir a comprender la interacción que existe entre los sistemas STPV y el edificio, proporcionando tanto a los fabricantes de los componentes como a los profesionales de la construcción información valiosa sobre el potencial de ahorro energético asociado a estos nuevos sistemas constructivos. Asimismo el estudio define los parámetros de diseño adecuados para lograr soluciones eficientes tanto en proyectos nuevos como de rehabilitación. ABSTRACT The general hypothesis this work seeks to demonstrate is that the architectural integration of Semi-Transparent Photovoltaic (STPV) systems can contribute to improving the energy efficiency of buildings. Accordingly, the research has focused on developing a methodology able to quantify the building energy demand reduction provided by these novel constructive solutions. At the same time, the design parameters of the STPV solution have been analysed to establish which of them have the greatest impact on the global energy balance of the building, and therefore which have to be carefully defined in order to optimize the building operation. In the light of these goals, the study methodology has focused on three main points: To characterise the global energy behaviour of STPV systems in realistic operating conditions, similar to those in which a real system will operate; To characterise the global energy behaviour of STPV systems in controlled conditions in order to study how the performance varies depending on the design and operating parameters; To assess the global energy saving potential of STPV systems in comparison with conventional glazing solutions by varying the boundary conditions, including design parameters (such as the degree of transparency), architectural characteristics (such as the Window to Wall Ratio) and climatic conditions (covering the European climatic conditions). In summary, this work has sought to contribute to the understanding of the interaction between STPV systems and the building, providing both components manufacturers and construction technicians, valuable information on the energy savings potential of these new construction systems and defining the appropriate design parameters to achieve efficient solutions in both new and retrofitting projects.
Resumo:
Indice