13 resultados para multiplication

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

An electrically tunable system for the control of optical pulse sequences is proposed and demonstrated. It is based on the use of an electrooptic modulator for periodic phase modulation followed by a dispersive device to obtain the temporal Talbot effect. The proposed configuration allows for repetition rate multiplication with different multiplication factors and with the simultaneous control of the pulse train envelope by simply changing the electrical signal driving the modulator. Simulated and experimental results for an input optical pulse train of 10 GHz are shown for different multiplication factors and envelope shapes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a low-power, high-speed 4-data-path 128-point mixed-radix (radix-2 & radix-2 2 ) FFT processor for MB-OFDM Ultra-WideBand (UWB) systems. The processor employs the single-path delay feedback (SDF) pipelined structure for the proposed algorithm, it uses substructure-sharing multiplication units and shift-add structure other than traditional complex multipliers. Furthermore, the word lengths are properly chosen, thus the hardware costs and power consumption of the proposed FFT processor are efficiently reduced. The proposed FFT processor is verified and synthesized by using 0.13 µm CMOS technology with a supply voltage of 1.32 V. The implementation results indicate that the proposed 128-point mixed-radix FFT architecture supports a throughput rate of 1Gsample/s with lower power consumption in comparison to existing 128-point FFT architectures

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this correspondence, the conditions to use any kind of discrete cosine transform (DCT) for multicarrier data transmission are derived. The symmetric convolution-multiplication property of each DCT implies that when symmetric convolution is performed in the time domain, an element-by-element multiplication is performed in the corresponding discrete trigonometric domain. Therefore, appending symmetric redun-dancy (as prefix and suffix) into each data symbol to be transmitted, and also enforcing symmetry for the equivalent channel impulse response, the linear convolution performed in the transmission channel becomes a symmetric convolution in those samples of interest. Furthermore, the channel equalization can be carried out by means of a bank of scalars in the corresponding discrete cosine transform domain. The expressions for obtaining the value of each scalar corresponding to these one-tap per subcarrier equalizers are presented. This study is completed with several computer simulations in mobile broadband wireless communication scenarios, considering the presence of carrier frequency offset (CFO). The obtained results indicate that the proposed systems outperform the standardized ones based on the DFT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El alcornoque tiene un gran valor ambiental, como integrante de los ecosistemas forestales mediterráneos, e interés comercial por el valor de la bellota (alimentación del cerdo ibérico), el carbón, la madera y sobre todo por las aplicaciones industriales del corcho. Las posibilidades de mejora genética del alcornoque, como las de otras especies forestales, están limitadas por sus largos ciclos reproductivos y porque su propagación vegetativa mediante estaquillado solo es posible en estados muy juveniles. Por ello este sistema de propagación tiene muy poca, o ninguna, utilidad práctica en la mejora genética. La embriogénesis somática es la vía más apropiada para la clonación de muchas especies forestales y ha hecho posible el desarrollo a gran escala de plantaciones multivarietales de coníferas. En alcornoque es posible la regeneración completa de árboles adultos mediante embriogénesis somática. Con los protocolos actuales (en medio semisólido), los embriones se generan formando acúmulos y en la fase de multiplicación conviven embriones en distintos estados de desarrollo. Es un sistema asincrónico, con baja eficacia para la propagación en masa, que no elimina completamente las dificultades para el desarrollo de programas de mejora genética del alcornoque. En otras especies la utilización de medios líquidos ha mejorado: la sincronización, productividad de los cultivos, el manejo y reducido los costes de producción. Por ello el desarrollo de suspensiones embriogénicas de alcornoque se plantea como una vía para aumentar la eficacia de la propagación clonal a gran escala. En la presente tesis se desarrollan cultivos embriogénicos de alcornoque en medio líquido. El capítulo 3 aborda el establecimiento y mantenimiento de suspensiones, el capítulo 4 el desarrollo de una fase de proliferación en medio líquido y el capítulo 5 la utilización de sistemas de cultivo en medio líquido, estacionarios y de inmersión temporal, como vía para favorecer la maduración de los embriones somáticos. Para iniciar los cultivos en medio líquido se emplearon agregados de embriones tomados de la fase de proliferación en medio semisólido. Cuando estos agregados se inocularon directamente en medio líquido no se logró el establecimiento de las suspensiones. El establecimiento se consiguió empleando como inóculo las células y Resumen pequeños agregados embriogénicos, de tamaño comprendido entre 41 y 800 μm, desprendidas por agitación breve de los agregados de embriones. El mantenimiento se logró inoculando en baja densidad masas embriogénicas compactas de tamaño comprendido entre 0,8 y 1,2 mm. Estas suspensiones, muy heterogéneas, mantuvieron su capacidad de proliferación y de regeneración de embriones al menos durante diez subcultivos consecutivos. El protocolo de iniciación y mantenimiento, desarrollado inicialmente con un solo genotipo, fue eficaz cuando se probó sobre otros 11 genotipos de alcornoque. En la fase de proliferación se ensayaron tres tipos de envase y tres velocidades de agitación. La combinación envase × velocidad determinó el intercambio gaseoso, la disponibilidad de oxígeno y el estrés hidrodinámico. Los agregados embriogénicos de alcornoque crecieron incluso en condiciones de hipoxia no siendo la disponibilidad de oxígeno un factor limitante del crecimiento para tasas de trasferencia de oxígeno comprendidas entre 0,11 h-1 y 1,47 h-1. Por otra parte la producción de biomasa creció con el estrés hidrodinámico para valores de índice de cizalladura inferiores a 5 x 10-3 cm min-1. La mayor producción de biomasa se obtuvo con matraces Erlenmeyer de 100 ml y alta velocidad de agitación (160 rpm) mientras que la diferenciación de embriones se vio favorecida por bajas velocidades de agitación (60 rpm) asociadas con bajas disponibilidades de oxígeno. La posibilidad de madurar embriones de alcornoque en medio líquido se estudió utilizando sistemas de inmersión permanente y sistemas de inmersión temporal. En inmersión permanente no se diferenciaron embriones cotiledonares (posiblemente por hiperhidricidad). Los sistemas de inmersión temporal permitieron obtener embriones maduros en estado cotiledonar y capaces de regenerar plantas in vitro. Concentraciones de sacarosa superiores a 60 g l-1 y frecuencias de inmersión iguales o inferiores a una diaria, tuvieron efectos negativos para el desarrollo de los embriones somáticos. En los sistemas de inmersión temporal los parámetros físico-químicos del medio de cultivo se mantuvieron estables y no se observó ninguna limitación de nutrientes. No obstante, estos sistemas se vieron afectados por la evaporación que generó el flujo de aire necesario para desplazar el líquido en cada periodo de inmersión. Abstract ABSTRACT Cork oak is one of the most important tree species of the Mediterranean ecosystem. Besides its high environmental value has a great economic interest due to the sustainable production of acorns (to feed the Iberian pig) charcoal, timber and cork, which is a renewable natural product with various technological applications. As happens with other forest species, cork oak genetic improvement programs are limited by their long life cycles and because vegetative propagation by cuttings it´s only possible in very juvenile plants. Hence this propagation system is useless or has little practical use for breeding cork oak. Plant regeneration by somatic embryogenesis is the most suitable way for cloning many forest species, and it is the enabling technology which has allowed the establishment of large-scale conifer multi-varietal plantations. Clonal plant regeneration of mature cork oak trees can be achieved through somatic embryogenesis. Somatic embryos at different stages of development and forming clusters are produced during the multiplication phase with current protocols (using semisolid medium). This is an asynchronous low-efficient process not suitable for mass propagation, and therefore it does not solve the difficulties presented by cork oak breeding programs. Culture in liquid medium has been used with other species to improve: synchronization, yield, handling, and to reduce production costs. Thus the development of cork oak embryogenic suspension cultures is envisaged as a way to increase the efficiency of large scale clonal propagation. The thesis herein develops cork oak embryogenic cultures in liquid medium. In chapter 3 establishment and maintenance of suspension cultures are developed, chapter 4 studies proliferation phase in liquid medium and chapter 5 considers the use of different systems of culture in liquid medium, both stationary and temporary immersion, as a way to promote somatic embryos maturation. Clusters of embryos taken from proliferating cultures on semisolid medium were used to initiate the cultures in liquid medium. When these clusters were inoculated directly in liquid medium establishment of suspension cultures was not executed. However using, as initial inoculum, cells and cell aggregates with a size between 41 and 800 μm detached from these clusters of embryos, subjected to a brief shaking, suspension cultures could be established. Suspension maintenance was achieved by inoculating compact embryogenic Abstract clumps with a size between 0.8 and 1.2 mm at low density. The suspension cultures, very heterogeneous, retained both their proliferation and embryo regeneration capacity for at least ten consecutive subcultures. The initiation and maintenance protocol, initially developed with a single genotype, was effective when tested on 11 additional genotypes of cork oak. In proliferation phase three types of vessels and three different levels of agitation were assayed. The combination vessel × orbiting speed determined gas exchange, oxygen availability and hydrodynamic stress. Cork oak embryogenic aggregates grew even under hypoxia conditions; oxygen availability at transfer rates between 0.11 and 1.47 h-1 was not a limiting factor for growth. Furthermore the biomass production was increased with hydrodynamic stress when shear rate values were of less than 5 x 10-3 cm min-1. The highest biomass production was obtained with 100 ml Erlenmeyer flask and high stirring speed (160 rpm) while the differentiation of embryos was favored by low agitation speeds (60 rpm) associated with low oxygen availability. The possibility to mature cork oak somatic embryos in liquid medium was studied using both permanent immersion systems and temporary immersion systems. Cotyledonary embryos did not differentiate in permanent immersion conditions (probably due to hyperhydricity). Temporary immersion systems allowed obtaining mature cotyledonary embryos, which were able to regenerate plants in vitro. Sucrose concentrations above 60 g l-1 and immersion frequencies equal to or lower than one each 24 h had negative effects on somatic embryo development. Physicochemical parameters of the culture medium in temporary immersion systems were stable and showed no limitation of nutrients. However, these systems were affected by the evaporation generated by the airflow necessary to relocate the medium at each immersion period.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a W-band high-resolution radar sensor for short-range applications. Low-cost technologies have been properly selected in order to implement a versatile and easily scalable radar system. A large operational bandwidth of 9 GHz, required for obtaining high-range resolution, is attained by means of a frequency multiplication-based architecture. The system characterization to identify the performance-limiting stages and the subsequent design optimization are presented. The assessment of system performance for several representative applications has been carried out.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se suma a los intentos teóricos de clarificar la impronta del dominio digital en lo arquitectónico. Propone una cartografía crítica para reconstruir el proceso de tal convergencia considerando aquellos acontecimientos reveladores que lo han pautado. La integración de la extensión digital propia las tecnologías de la información y la comunicación en el contexto tradicional arquitectónico ha supuesto el advenimiento de un ecosistema artificial complejo. A esta realidad o proceso concurrente se la denomina el Entorno Aumentado. La línea principal de investigación explora el desarrollo de la interacción hombre-máquina, en sendas trayectorias sincrónicas convergentes. El análisis se aborda por tanto desde la consideración de esa naturaleza dual, atendiendo simultáneamente a la humanización del dominio digital o cómo la computación se adapta a la condición natural de ser humano, y a la digitalización del ser humano o cómo éste asume el imperativo digital. El análisis resulta vertebrado desde la condición panóptica del punto de observación del acontecimiento: la cuarta pared, entendida como pantalla y punto de inflexión que estructura la convergencia de los entornos físico y digital. La reflexión acometida sobre la construcción del Entorno Aumentado procura la verificación de la tesis, que es central en esta investigación: la multiplicación dimensional del lugar físico mediante su extensión con un campo informacional procedente del dominio digital, y sus efectos en la construcción de la nueva ecología digital propia del Entorno Aumentado. Esta circunstancia se produce tras la eclosión de la Revolución Digital en la segunda mitad del siglo XX, el consecuente incremento de la interacción entre los entornos digital y físico, y el alcance de un nivel superior de comunicación en los procesos arquitectónicos. Los síntomas del Entorno Aumentado se hacen notar en nuestra contemporaneidad; en ese sentido, la tesis alcanza un diagnóstico del cambio. La fractura y obsolescencia del límite espacio-temporal establecido por las dicotomías históricas privado-público, casa-ciudad, trabajo-ocio,…etc., o la vigencia del proyecto procedimental son algunas de sus consecuencias en el modo de abordar la disciplina arquitectónica. Abstract This dissertation aims to complete the theoretical attempts to clarify the digital domain imprint on the architectural realm. It constructs a critical cartography to reconstruct the process of such convergence, considering those principal events who have scheduled it. The integration of TIC’s digital extension through the traditional architectural context has meant the advent of an artificial complex ecosystem. This reality or concurrent process is called The Augmented Environment. The key research attempt explores man-machine interaction process in both synchronous converging trajectories. The analysis therefore addresses from the consideration of this dual nature, focusing simultaneously in humanizing digital domain process or how the computer fits the natural condition of human beings, and in digitalizing human beings or how it affords the digital imperative. The analysis is structured from the panoptic condition of the event scope: the fourth wall as screen that structures the convergence of physical and digital environments. The examination of The Augmented Environment’s assembly pretends the verification of the central point of this research: the dimensional multiplication of physical space by extending informational fields from the digital domain, and its effects on the construction of the Augmented Environment new digital ecology. This circumstance occurs after the arrival of the Digital Revolution in the second half of the twentieth century, with the consequent increase in the interaction between digital and physical environments, and the reach of a higher level of communication in architectural processes. The Augmented Environment signs are alive nowadays; in that sense, the thesis reaches a diagnostic of the changes. The fracture and obsolescence of the time-space limit established by historic dichotomies as private-public, home-city, working-leisure...etc., or the validity of the procedural design are some of its consequences on the architectural discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sensitivity analysis on the multiplication factor, keffkeff, to the cross section data has been carried out for the MYRRHA critical configuration in order to show the most relevant reactions. With these results, a further analysis on the 238Pu and 56Fe cross sections has been performed, comparing the evaluations provided in the JEFF-3.1.2 and ENDF/B-VII.1 libraries for these nuclides. Then, the effect in MYRRHA of the differences between evaluations are analysed, presenting the source of the differences. With these results, recommendations for the 56Fe and 238Pu evaluations are suggested. These calculations have been performed with SCALE6.1 and MCNPX-2.7e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los virus de plantas pueden causar enfermedades severas que conllevan serias pérdidas económicas a nivel mundial. Además, en la naturaleza son comunes las infecciones simultáneas con distintos virus que conducen a la exacerbación de los síntomas de enfermedad, fenómeno al que se conoce como sinergismo viral. Una de las sintomatologías más severas causadas por los virus en plantas susceptibles es la necrosis sistémica (NS), que incluso puede conducir a la muerte del huésped. Este fenotipo ha sido comparado en ocasiones con la respuesta de resistencia de tipo HR, permitiendo establecer una serie de paralelismos entre ambos tipos de respuesta que sugieren que la NS producida en interacciones compatibles sería el resultado de una respuesta hipersensible sistémica (SHR). Sin embargo, los mecanismos moleculares implicados en el desarrollo de la NS, su relación con procesos de defensa antiviral o su relevancia biológica aún no son bien entendidos, al igual que tampoco han sido estudiados los cambios producidos en la planta a escala genómica en infecciones múltiples que muestran sinergismo en patología. En esta tesis doctoral se han empleado distintas aproximaciones de análisis de expresión génica, junto con otras técnicas genéticas y bioquímicas, en el sistema modelo de Nicotiana benthamiana para estudiar la NS producida por la infección sinérgica entre el Virus X de la patata (PVX) y diversos potyvirus. Se han comparado los cambios producidos en el huésped a nivel genómico y fisiológico entre la infección doble con PVX y el Virus Y de la patata (PVY), y las infecciones simples con PVX o PVY. Además, los cambios transcriptómicos y hormonales asociados a la infección con la quimera viral PVX/HC‐Pro, que reproduce los síntomas del sinergismo entre PVX‐potyvirus, se han comparado con aquellos producidos por otros dos tipos de muerte celular, la PCD ligada a una interacción incompatible y la PCD producida por la disfunción del proteasoma. Por último, técnicas de genética reversa han permitido conocer la implicación de factores del huésped, como las oxilipinas, en el desarrollo de la NS asociada al sinergismo entre PVXpotyvirus. Los resultados revelan que, respecto a las infecciones con solo uno de los virus, la infección doble con PVX‐PVY produce en el huésped diferencias cualitativas además de cuantitativas en el perfil transcriptómico relacionado con el metabolismo primario. Otros cambios en la expresión génica, que reflejan la activación de mecanismos de defensa, correlacionan con un fuerte estrés oxidativo en las plantas doblemente infectadas que no se detecta en las infecciones simples. Además, medidas en la acumulación de determinados miRNAs implicados en diversos procesos celulares muestran como la infección doble altera de manera diferencial tanto la acumulación de estos miRNAs como su funcionalidad, lo cual podría estar relacionado con los cambios en el transcriptoma, así como con la sintomatología de la infección. La comparación a nivel transcriptómico y hormonal entre la NS producida por PVX/HC‐Pro y la interacción incompatible del Virus del mosaico del tabaco en plantas que expresan el gen N de resistencia (SHR), muestra que la respuesta en la interacción compatible es similar a la que se produce durante la SHR, si bien se presenta de manera retardada en el tiempo. Sin embargo, los perfiles de expresión de genes de defensa y de respuesta a hormonas, así como la acumulación relativa de ácido salicílico (SA), ácido jasmonico (JA) y ácido abscísico, en la interacción compatible son más semejantes a la respuesta PCD producida por la disfunción del proteasoma que a la interacción incompatible. Estos datos sugieren una contribución de la interferencia sobre la funcionalidad del proteasoma en el incremento de la patogenicidad, observado en el sinergismo PVX‐potyvirus. Por último, los resultados obtenidos al disminuir la expresión de 9‐LOX, α‐DOX1 y COI1, relacionados con la síntesis o con la señalización de oxilipinas, y mediante la aplicación exógena de JA y SA, muestran la implicación del metabolismo de las oxilipinas en el desarrollo de la NS producida por la infección sinérgica entre PVXpotyvirus en N. benthamiana. Además, estos resultados indican que la PCD asociada a esta infección, al igual que ocurre en interacciones incompatibles, no contiene necesariamente la acumulación viral, lo cual indica que necrosis e inhibición de la multiplicación viral son procesos independientes. ABSTRACT Plant viruses cause severe diseases that lead to serious economic losses worldwide. Moreover, simultaneous infections with several viruses are common in nature leading to exacerbation of the disease symptoms. This phenomenon is known as viral synergism. Systemic necrosis (SN) is one of the most severe symptoms caused by plant viruses in susceptible plants, even leading to death of the host. This phenotype has been compared with the hypersensitive response (HR) displayed by resistant plants, and some parallelisms have been found between both responses, which suggest that SN induced by compatible interactions could be the result of a systemic hypersensitive response (SHR). However, the molecular mechanisms involved in the development of SN, its relationship with antiviral defence processes and its biological relevance are still unknown. Furthermore, the changes produced in plants by mixed infections that cause synergistic pathological effects have not been studied in a genome‐wide scale. In this doctoral thesis different approaches have been used to analyse gene expression, together with other genetic and biochemical techniques, in the model plant Nicotiana benthamiana, in order to study the SN produced by the synergistic infection of Potato virus X (PVX) with several potyviruses. Genomic and physiological changes produced in the host by double infection with PVX and Potato virus Y (PVY), and by single infection with PVX or PVY have been compared. In addition, transcriptional and hormonal changes associated with infection by the chimeric virus PVX/HC‐Pro, which produces synergistic symptoms similar to those caused by PVX‐potyvirus, have been compared with those produced by other types of cell death. These types of cell death are: PCD associated with an incompatible interaction, and PCD produced by proteasome disruption. Finally, reverse genetic techniques have revealed the involvement of host factors, such as oxylipins, in the development of SN associated with PVX‐potyvirus synergism. The results revealed that compared with single infections, double infection with PVX‐PVY produced qualitative and quantitative differences in the transcriptome profile, mainly related to primary metabolism. Other changes in gene expression, which reflected the activation of defence mechanisms, correlated with a severe oxidative stress in doubly infected plants that was undetected in single infections. Additionally, accumulation levels of several miRNAs involved in different cellular processes were measured, and the results showed that double infection not only produced the greatest variations in miRNA accumulation levels but also in miRNA functionality. These variations could be related with transcriptomic changes and the symptomatology of the infection. Transcriptome and hormone level comparisons between SN induced by PVX/HCPro and the incompatible interaction produced by Tobacco mosaic virus in plants expressing the N resistance gene (SHR), showed some similarities between both responses, even though the compatible interaction appeared retarded in time. Nevertheless, the expression profiles of both defence‐related genes and hormoneresponsive genes, as well as the relative accumulation of salicylic acid (SA), jasmonic acid (JA) and abscisic acid in the compatible interaction are more similar to the PCD response produced by proteasome disruption. These data suggest that interference with proteasome functionality contributes to the increase in pathogenicity associated with PVX‐potyvirus synergism. Finally, the results obtained by reducing the expression of 9‐LOX, α‐DOX1 and COI1, related with synthesis or signalling of oxylipins, and by applying exogenously JA and SA, revealed that oxylipin metabolism is involved in the development of SN induced by PVX‐potyvirus synergistic infections in N. benthamiana. Moreover, these results also indicated that PVX‐potyvirus associated PCD does not necessarily restrict viral accumulation, as is also the case in incompatible interactions. This indicates that both necrosis and inhibition of viral multiplication are independent processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Virus emergence is a complex phenomenon, which generally involves spread to a new host from a wild host, followed by adaptation to the new host. Although viruses account for the largest fraction of emerging crop pathogens, knowledge about their emergence is incomplete. We address here the question of whether Pepino mosaic virus (PepMV) emergence as a major tomato pathogen worldwide could have involved spread from wild to cultivated plant species and host adaptation. For this, we surveyed natural populations of wild tomatoes in southern Peru for PepMV infection. PepMV incidence, genetic variation, population structure, and accumulation in various hosts were analyzed. PepMV incidence in wild tomatoes was high, and a strain not yet reported in domestic tomato was characterized. This strain had a wide host range within the Solanaceae, multiplying efficiently in most assayed Solanum species and being adapted to wild tomato hosts. Conversely, PepMV isolates from tomato crops showed evidence of adaptation to domestic tomato, possibly traded against adaptation to wild tomatoes. Phylogenetic reconstructions indicated that the most probable ancestral sequence came from a wild Solanum species. A high incidence of PepMV in wild tomato relatives would favor virus spread to crops and its efficient multiplication in different Solanum species, including tomato, allowing its establishment as an epidemic pathogen. Later, adaptation to tomato, traded off against adaptation to other Solanum species, would isolate tomato populations from those in other hosts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Despite the socioeconomic importance of walnut trees, poor rooting and recalcitrance to in vitro culture have hampered the establishment of high-yield clonal plantations. To improve walnut micropropagation, we introduced several modifications to current methods and evaluated the effects on microshoot performance and acclimatization. Nine selected genotypes (13-year-old trees) of the commercial hybrid Juglans major 209 x J. regia were cultured in vitro on DKW-C medium supplemented with 4.4 µM BA and 50 µM IBA. A protocol was developed that relies on the use of 0.40 mM phloroglucinol during shoot multiplication, 0.20 mM previous root induction, and 6.81 mg/L Fe3+ (FeEDDHA). Moreover, the addition of 83.2 µM glucose during the root expression phase significantly improved plant survival during acclimatization. Phloroglucinol promoted microshoot elongation but inhibited rooting, especially at concentrations above 0.40 mM. Replacing FeEDTA by FeEDDHA diminished chlorotic symptoms and improved rooting, with up to 90% microshoots developing viable roots. Likewise, glucose was more efficient than sucrose or fructose in promoting plant survival. At the proposed working concentrations, neither glucose nor FeEDDHA caused any noticeable deleterious effect on walnut micropropagation. Microscopic analysis revealed the physical continuity between adventitious roots and stem pericycles. Analysis of leaf genomic DNA with eight polymorphic microsatellite markers was supportive of the clonal fidelity and genetic stability of the micropropagated material. Successful clonal plantations (over 5,800 ramets) have been established by applying this protocol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo da las nuevas tecnologías permite a los ingenieros llevar al límite el funcionamiento de los circuitos integrados (Integrated Circuits, IC). Las nuevas generaciones de procesadores, DSPs o FPGAs son capaces de procesar la información a una alta velocidad, con un alto consumo de energía, o esperar en modo de baja potencia con el mínimo consumo posible. Esta gran variación en el consumo de potencia y el corto tiempo necesario para cambiar de un nivel al otro, afecta a las especificaciones del Módulo de Regulador de Tensión (Voltage Regulated Module, VRM) que alimenta al IC. Además, las características adicionales obligatorias, tales como adaptación del nivel de tensión (Adaptive Voltage Positioning, AVP) y escalado dinámico de la tensión (Dynamic Voltage Scaling, DVS), imponen requisitos opuestas en el diseño de la etapa de potencia del VRM. Para poder soportar las altas variaciones de los escalones de carga, el condensador de filtro de salida del VRM se ha de sobredimensionar, penalizando la densidad de energía y el rendimiento durante la operación de DVS. Por tanto, las actuales tendencias de investigación se centran en mejorar la respuesta dinámica del VRM, mientras se reduce el tamaño del condensador de salida. La reducción del condensador de salida lleva a menor coste y una prolongación de la vida del sistema ya que se podría evitar el uso de condensadores voluminosos, normalmente implementados con condensadores OSCON. Una ventaja adicional es que reduciendo el condensador de salida, el DVS se puede realizar más rápido y con menor estrés de la etapa de potencia, ya que la cantidad de carga necesaria para cambiar la tensión de salida es menor. El comportamiento dinámico del sistema con un control lineal (Control Modo Tensión, VMC, o Control Corriente de Pico, Peak Current Mode Control, PCMC,…) está limitado por la frecuencia de conmutación del convertidor y por el tamaño del filtro de salida. La reducción del condensador de salida se puede lograr incrementando la frecuencia de conmutación, así como incrementando el ancho de banda del sistema, y/o aplicando controles avanzados no-lineales. Usando esos controles, las variables del estado se saturan para conseguir el nuevo régimen permanente en un tiempo mínimo, así como el filtro de salida, más específicamente la pendiente de la corriente de la bobina, define la respuesta de la tensión de salida. Por tanto, reduciendo la inductancia de la bobina de salida, la corriente de bobina llega más rápido al nuevo régimen permanente, por lo que una menor cantidad de carga es tomada del condensador de salida durante el tránsito. El inconveniente de esa propuesta es que el rendimiento del sistema es penalizado debido al incremento de pérdidas de conmutación y las corrientes RMS. Para conseguir tanto la reducción del condensador de salida como el alto rendimiento del sistema, mientras se satisfacen las estrictas especificaciones dinámicas, un convertidor multifase es adoptado como estándar para aplicaciones VRM. Para asegurar el reparto de las corrientes entre fases, el convertidor multifase se suele implementar con control de modo de corriente. Para superar la limitación impuesta por el filtro de salida, la segunda posibilidad para reducir el condensador de salida es aplicar alguna modificación topológica (Topologic modifications) de la etapa básica de potencia para incrementar la pendiente de la corriente de bobina y así reducir la duración de tránsito. Como el transitorio se ha reducido, una menor cantidad de carga es tomada del condensador de salida bajo el mismo escalón de la corriente de salida, con lo cual, el condensador de salida se puede reducir para lograr la misma desviación de la tensión de salida. La tercera posibilidad para reducir el condensador de salida del convertidor es introducir un camino auxiliar de energía (additional energy path, AEP) para compensar el desequilibrio de la carga del condensador de salida reduciendo consecuentemente la duración del transitorio y la desviación de la tensión de salida. De esta manera, durante el régimen permanente, el sistema tiene un alto rendimiento debido a que el convertidor principal con bajo ancho de banda es diseñado para trabajar con una frecuencia de conmutación moderada para conseguir requisitos estáticos. Por otro lado, el comportamiento dinámico durante los transitorios es determinado por el AEP con un alto ancho de banda. El AEP puede ser implementado como un camino resistivo, como regulador lineal (Linear regulator, LR) o como un convertidor conmutado. Las dos primeras implementaciones proveen un mayor ancho de banda, acosta del incremento de pérdidas durante el transitorio. Por otro lado, la implementación del convertidor computado presenta menor ancho de banda, limitado por la frecuencia de conmutación, aunque produce menores pérdidas comparado con las dos anteriores implementaciones. Dependiendo de la aplicación, la implementación y la estrategia de control del sistema, hay una variedad de soluciones propuestas en el Estado del Arte (State-of-the-Art, SoA), teniendo diferentes propiedades donde una solución ofrece más ventajas que las otras, pero también unas desventajas. En general, un sistema con AEP ideal debería tener las siguientes propiedades: 1. El impacto del AEP a las pérdidas del sistema debería ser mínimo. A lo largo de la operación, el AEP genera pérdidas adicionales, con lo cual, en el caso ideal, el AEP debería trabajar por un pequeño intervalo de tiempo, solo durante los tránsitos; la otra opción es tener el AEP constantemente activo pero, por la compensación del rizado de la corriente de bobina, se generan pérdidas innecesarias. 2. El AEP debería ser activado inmediatamente para minimizar la desviación de la tensión de salida. Para conseguir una activación casi instantánea, el sistema puede ser informado por la carga antes del escalón o el sistema puede observar la corriente del condensador de salida, debido a que es la primera variable del estado que actúa a la perturbación de la corriente de salida. De esa manera, el AEP es activado con casi cero error de la tensión de salida, logrando una menor desviación de la tensión de salida. 3. El AEP debería ser desactivado una vez que el nuevo régimen permanente es detectado para evitar los transitorios adicionales de establecimiento. La mayoría de las soluciones de SoA estiman la duración del transitorio, que puede provocar un transitorio adicional si la estimación no se ha hecho correctamente (por ejemplo, si la corriente de bobina del convertidor principal tiene un nivel superior o inferior al necesitado, el regulador lento del convertidor principal tiene que compensar esa diferencia una vez que el AEP es desactivado). Otras soluciones de SoA observan las variables de estado, asegurando que el sistema llegue al nuevo régimen permanente, o pueden ser informadas por la carga. 4. Durante el transitorio, como mínimo un subsistema, o bien el convertidor principal o el AEP, debería operar en el lazo cerrado. Implementando un sistema en el lazo cerrado, preferiblemente el subsistema AEP por su ancho de banda elevado, se incrementa la robustez del sistema a los parásitos. Además, el AEP puede operar con cualquier tipo de corriente de carga. Las soluciones que funcionan en el lazo abierto suelen preformar el control de balance de carga con mínimo tiempo, así reducen la duración del transitorio y tienen un impacto menor a las pérdidas del sistema. Por otro lado, esas soluciones demuestran una alta sensibilidad a las tolerancias y parásitos de los componentes. 5. El AEP debería inyectar la corriente a la salida en una manera controlada, así se reduce el riesgo de unas corrientes elevadas y potencialmente peligrosas y se incrementa la robustez del sistema bajo las perturbaciones de la tensión de entrada. Ese problema suele ser relacionado con los sistemas donde el AEP es implementado como un convertidor auxiliar. El convertidor auxiliar es diseñado para una potencia baja, con lo cual, los dispositivos elegidos son de baja corriente/potencia. Si la corriente no es controlada, bajo un pico de tensión de entrada provocada por otro parte del sistema (por ejemplo, otro convertidor conectado al mismo bus), se puede llegar a un pico en la corriente auxiliar que puede causar la perturbación de tensión de salida e incluso el fallo de los dispositivos del convertidor auxiliar. Sin embargo, cuando la corriente es controlada, usando control del pico de corriente o control con histéresis, la corriente auxiliar tiene el control con prealimentación (feed-forward) de tensión de entrada y la corriente es definida y limitada. Por otro lado, si la solución utiliza el control de balance de carga, el sistema puede actuar de forma deficiente si la tensión de entrada tiene un valor diferente del nominal, provocando que el AEP inyecta/toma más/menos carga que necesitada. 6. Escalabilidad del sistema a convertidores multifase. Como ya ha sido comentado anteriormente, para las aplicaciones VRM por la corriente de carga elevada, el convertidor principal suele ser implementado como multifase para distribuir las perdidas entre las fases y bajar el estrés térmico de los dispositivos. Para asegurar el reparto de las corrientes, normalmente un control de modo corriente es usado. Las soluciones de SoA que usan VMC son limitadas a la implementación con solo una fase. Esta tesis propone un nuevo método de control del flujo de energía por el AEP y el convertidor principal. El concepto propuesto se basa en la inyección controlada de la corriente auxiliar al nodo de salida donde la amplitud de la corriente es n-1 veces mayor que la corriente del condensador de salida con las direcciones apropiadas. De esta manera, el AEP genera un condensador virtual cuya capacidad es n veces mayor que el condensador físico y reduce la impedancia de salida. Como el concepto propuesto reduce la impedancia de salida usando el AEP, el concepto es llamado Output Impedance Correction Circuit (OICC) concept. El concepto se desarrolla para un convertidor tipo reductor síncrono multifase con control modo de corriente CMC (incluyendo e implementación con una fase) y puede operar con la tensión de salida constante o con AVP. Además, el concepto es extendido a un convertidor de una fase con control modo de tensión VMC. Durante la operación, el control de tensión de salida de convertidor principal y control de corriente del subsistema OICC están siempre cerrados, incrementando la robustez a las tolerancias de componentes y a los parásitos del cirquito y permitiendo que el sistema se pueda enfrentar a cualquier tipo de la corriente de carga. Según el método de control propuesto, el sistema se puede encontrar en dos estados: durante el régimen permanente, el sistema se encuentra en el estado Idle y el subsistema OICC esta desactivado. Por otro lado, durante el transitorio, el sistema se encuentra en estado Activo y el subsistema OICC está activado para reducir la impedancia de salida. El cambio entre los estados se hace de forma autónoma: el sistema entra en el estado Activo observando la corriente de condensador de salida y vuelve al estado Idle cunado el nuevo régimen permanente es detectado, observando las variables del estado. La validación del concepto OICC es hecha aplicándolo a un convertidor tipo reductor síncrono con dos fases y de 30W cuyo condensador de salida tiene capacidad de 140μF, mientras el factor de multiplicación n es 15, generando en el estado Activo el condensador virtual de 2.1mF. El subsistema OICC es implementado como un convertidor tipo reductor síncrono con PCMC. Comparando el funcionamiento del convertidor con y sin el OICC, los resultados demuestran que se ha logrado una reducción de la desviación de tensión de salida con factor 12, tanto con funcionamiento básico como con funcionamiento AVP. Además, los resultados son comparados con un prototipo de referencia que tiene la misma etapa de potencia y un condensador de salida físico de 2.1mF. Los resultados demuestran que los dos sistemas tienen el mismo comportamiento dinámico. Más aun, se ha cuantificado el impacto en las pérdidas del sistema operando bajo una corriente de carga pulsante y bajo DVS. Se demuestra que el sistema con OICC mejora el rendimiento del sistema, considerando las pérdidas cuando el sistema trabaja con la carga pulsante y con DVS. Por lo último, el condensador de salida de sistema con OICC es mucho más pequeño que el condensador de salida del convertidor de referencia, con lo cual, por usar el concepto OICC, la densidad de energía se incrementa. En resumen, las contribuciones principales de la tesis son: • El concepto propuesto de Output Impedance Correction Circuit (OICC), • El control a nivel de sistema basado en el método usado para cambiar los estados de operación, • La implementación del subsistema OICC en lazo cerrado conjunto con la implementación del convertidor principal, • La cuantificación de las perdidas dinámicas bajo la carga pulsante y bajo la operación DVS, y • La robustez del sistema bajo la variación del condensador de salida y bajo los escalones de carga consecutiva. ABSTRACT Development of new technologies allows engineers to push the performance of the integrated circuits to its limits. New generations of processors, DSPs or FPGAs are able to process information with high speed and high consumption or to wait in low power mode with minimum possible consumption. This huge variation in power consumption and the short time needed to change from one level to another, affect the specifications of the Voltage Regulated Module (VRM) that supplies the IC. Furthermore, additional mandatory features, such as Adaptive Voltage Positioning (AVP) and Dynamic Voltage Scaling (DVS), impose opposite trends on the design of the VRM power stage. In order to cope with high load-step amplitudes, the output capacitor of the VRM power stage output filter is drastically oversized, penalizing power density and the efficiency during the DVS operation. Therefore, the ongoing research trend is directed to improve the dynamic response of the VRM while reducing the size of the output capacitor. The output capacitor reduction leads to a smaller cost and longer life-time of the system since the big bulk capacitors, usually implemented with OSCON capacitors, may not be needed to achieve the desired dynamic behavior. An additional advantage is that, by reducing the output capacitance, dynamic voltage scaling (DVS) can be performed faster and with smaller stress on the power stage, since the needed amount of charge to change the output voltage is smaller. The dynamic behavior of the system with a linear control (Voltage mode control, VMC, Peak Current Mode Control, PCMC,…) is limited by the converter switching frequency and filter size. The reduction of the output capacitor can be achieved by increasing the switching frequency of the converter, thus increasing the bandwidth of the system, and/or by applying advanced non-linear controls. Applying nonlinear control, the system variables get saturated in order to reach the new steady-state in a minimum time, thus the output filter, more specifically the output inductor current slew-rate, determines the output voltage response. Therefore, by reducing the output inductor value, the inductor current reaches faster the new steady state, so a smaller amount of charge is taken from the output capacitor during the transient. The drawback of this approach is that the system efficiency is penalized due to increased switching losses and RMS currents. In order to achieve both the output capacitor reduction and high system efficiency, while satisfying strict dynamic specifications, a Multiphase converter system is adopted as a standard for VRM applications. In order to ensure the current sharing among the phases, the multiphase converter is usually implemented with current mode control. In order to overcome the limitation imposed by the output filter, the second possibility to reduce the output capacitor is to apply Topologic modifications of the basic power stage topology in order to increase the slew-rate of the inductor current and, therefore, reduce the transient duration. Since the transient is reduced, smaller amount of charge is taken from the output capacitor under the same load current, thus, the output capacitor can be reduced to achieve the same output voltage deviation. The third possibility to reduce the output capacitor of the converter is to introduce an additional energy path (AEP) to compensate the charge unbalance of the output capacitor, consequently reducing the transient time and output voltage deviation. Doing so, during the steady-state operation the system has high efficiency because the main low-bandwidth converter is designed to operate at moderate switching frequency, to meet the static requirements, whereas the dynamic behavior during the transients is determined by the high-bandwidth auxiliary energy path. The auxiliary energy path can be implemented as a resistive path, as a Linear regulator, LR, or as a switching converter. The first two implementations provide higher bandwidth, at the expense of increasing losses during the transient. On the other hand, the switching converter implementation presents lower bandwidth, limited by the auxiliary converter switching frequency, though it produces smaller losses compared to the two previous implementations. Depending on the application, the implementation and the control strategy of the system, there is a variety of proposed solutions in the State-of-the-Art (SoA), having different features where one solution offers some advantages over the others, but also some disadvantages. In general, an ideal additional energy path system should have the following features: 1. The impact on the system losses should be minimal. During its operation, the AEP generates additional losses, thus ideally, the AEP should operate for a short period of time, only when the transient is occurring; the other option is to have the AEP constantly on, but due to the inductor current ripple compensation at the output, unnecessary losses are generated. 2. The AEP should be activated nearly instantaneously to prevent bigger output voltage deviation. To achieve near instantaneous activation, the converter system can be informed by the load prior to the load-step or the system can observe the output capacitor current, which is the first system state variable that reacts on the load current perturbation. In this manner, the AEP is turned on with near zero output voltage error, providing smaller output voltage deviation. 3. The AEP should be deactivated once the new steady state is reached to avoid additional settling transients. Most of the SoA solutions estimate duration of the transient which may cause additional transient if the estimation is not performed correctly (e.g. if the main converter inductor current has higher or lower value than needed, the slow regulator of the main converter needs to compensate the difference after the AEP is deactivated). Other SoA solutions are observing state variables, ensuring that the system reaches the new steady state or they are informed by the load. 4. During the transient, at least one subsystem, either the main converter or the AEP, should be in closed-loop. Implementing a closed loop system, preferably the AEP subsystem, due its higher bandwidth, increases the robustness under system tolerances and circuit parasitic. In addition, the AEP can operate with any type of load. The solutions that operate in open loop usually perform minimum time charge balance control, thus reducing the transient length and minimizing the impact on the losses, however they are very sensitive to tolerances and parasitics. 5. The AEP should inject current at the output in a controlled manner, thus reducing the risk of high and potentially damaging currents and increasing robustness on the input voltage deviation. This issue is mainly related to the systems where AEP is implemented as auxiliary converter. The auxiliary converter is designed for small power and, as such, the MOSFETs are rated for small power/currents. If the current is not controlled, due to the some unpredicted spike in input voltage caused by some other part of the system (e.g. different converter), it may lead to a current spike in auxiliary current which will cause the perturbation of the output voltage and even failure of the switching components of auxiliary converter. In the case when the current is controlled, using peak CMC or Hysteretic Window CMC, the auxiliary converter has inherent feed-forwarding of the input voltage in current control and the current is defined and limited. Furthermore, if the solution employs charge balance control, the system may perform poorly if the input voltage has different value than the nominal, causing that AEP injects/extracts more/less charge than needed. 6. Scalability of the system to multiphase converters. As commented previously, in VRM applications, due to the high load currents, the main converters are implemented as multiphase to redistribute losses among the modules, lowering temperature stress of the components. To ensure the current sharing, usually a Current Mode Control (CMC) is employed. The SoA solutions that are implemented with VMC are limited to a single stage implementation. This thesis proposes a novel control method of the energy flow through the AEP and the main converter system. The proposed concept relays on a controlled injection of the auxiliary current at the output node where the instantaneous current value is n-1 times bigger than the output capacitor current with appropriate directions. Doing so, the AEP creates an equivalent n times bigger virtual capacitor at the output, thus reducing the output impedance. Due to the fact that the proposed concept reduces the output impedance using the AEP, it has been named the Output Impedance Correction Circuit (OICC) concept. The concept is developed for a multiphase CMC synchronous buck converter (including a single phase implementation), operating with a constant output voltage and with AVP feature. Further, it is extended to a single phase VMC synchronous buck converter. During the operation, the main converter voltage loop and the OICC subsystem capacitor current loop is constantly closed, increasing the robustness under system tolerances and circuit parasitic and allowing the system to operate with any load-current shape or pattern. According to the proposed control method, the system operates in two states: during the steady-state the system is in the Idle state and the OICC subsystem is deactivated, while during the load-step transient the system is in the Active state and the OICC subsystem is activated in order to reduce the output impedance. The state changes are performed autonomously: the system enters in the Active state by observing the output capacitor current and it returns back to the Idle state when the steady-state operation is detected by observing the state variables. The validation of the OICC concept has been done by applying it to a 30W two phase synchronous buck converter with 140μF output capacitor and with the multiplication factor n equal to 15, generating during the Active state equivalent output capacitor of 2.1mF. The OICC subsystem is implemented as single phase PCMC synchronous buck converter. Comparing the converter operation with and without the OICC the results demonstrate that the 12 times reduction of the output voltage deviation is achieved, for both basic operation and for the AVP operation. Furthermore, the results have been compared to a reference prototype which has the same power stage and a fiscal output capacitor of 2.1mF. The results show that the two systems have the same dynamic behavior. Moreover, an impact on the system losses under the pulsating load and DVS operation has been quantified and it has been demonstrated that the OICC system has improved the system efficiency, considering the losses when the system operates with the pulsating load and the DVS operation. Lastly, the output capacitor of the OICC system is much smaller than the reference design output capacitor, therefore, by applying the OICC concept the power density can be increased. In summary, the main contributions of the thesis are: • The proposed Output Impedance Correction Circuit (OICC) concept, • The system level control based on the used approach to change the states of operation, • The OICC subsystem closed-loop implementation, together with the main converter implementation, • The dynamic losses under the pulsating load and the DVS operation quantification, and • The system robustness on the capacitor impedance variation and consecutive load-steps.