98 resultados para switching mode power supply


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Shows a new structure, the untapered multifibre union, with similar oscillation behaviour to that of tapered single-mode fibres. As a consequences conical regions are not relevant to the final results. This oscillatory behaviour opens the way to low-cost all-fibre devices such as optical filters

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Deorbit, power generation, and thrusting performances of a bare thin-tape tether and an insulated tether with a spherical electron collector are compared for typical conditions in low-Earth orbit and common values of length L = 4−20 km and cross-sectional area of the tether A = 1−5 mm2. The relative performance of moderately large spheres, as compared with bare tapes, improves but still lags as one moves from deorbiting to power generation and to thrusting: Maximum drag in deorbiting requires maximum current and, thus, fully reflects on anodic collection capability, whereas extracting power at a load or using a supply to push current against the motional field requires reduced currents. The relative performance also improves as one moves to smaller A, which makes the sphere approach the limiting short-circuit current, and at greater L, with the higher bias only affecting moderately the already large bare-tape current. For a 4-m-diameter sphere, relative performances range from 0.09 sphere-to-bare tether drag ratio for L = 4 km and A = 5 mm2 to 0.82 thrust–efficiency ratio for L = 20 km and A = 1 mm2. Extremely large spheres collecting the short-circuit current at zero bias at daytime (diameters being about 14 m for A = 1 mm2 and 31 m for A = 5 mm2) barely outperform the bare tape for L = 4 km and are still outperformed by the bare tape for L = 20 km in both deorbiting and power generation; these large spheres perform like the bare tape in thrusting. In no case was sphere or sphere-related hardware taken into account in evaluating system mass, which would have reduced the sphere performances even further.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nuevas aplicaciones tecnológicas y científicas mediante amarras electrodinámicas son analizadas para misiones planetarias. i) Primero, se considera un conjunto de amarras cilíndricas en paralelo (veleros electrosolares) para una misión interplanetaria. Los iones provenientes del viento solar son repelidos por el alto potencial de dichas amarras generando empuje sobre el velero. Para conocer el intercambio de momento que provocan los iones sobre las amarras se ha considerado un modelo de potencial estacionario. Se ha analizado la transferencia orbital de la Tierra a Júpiter siguiendo un método de optimización de trayectoria indirecto. ii) Una vez que el velero se encuentra cerca de Júpiter, se ha considerado el despliegue de una amarra para diferentes objetivos científicos. iia) Una amarra podría ser utilizada para diagnóstico de plasmas, al ser una fuente efectiva de ondas, y también como un generador de auroras artificiales. Una amarra conductora que orbite en la magnetosfera jovial es capaz de producir ondas. Se han analizado las diferentes ondas radiadas por un conductor por el que circula una corriente constante que sigue una órbita polar de alta excentricidad y bajo apoápside, como ocurre en la misión Juno de la NASA. iib) Además, se ha estudiado una misión tentativa que sigue una órbita ecuatorial (LJO) por debajo de los intensos cinturones de radiación. Ambas misiones requiren potencia eléctrica para los sistemas de comunicación e instrumentos científicos. Las amarras pueden generar potencia de manera más eficiente que otros sistemas que utlizan paneles solares o sistemas de potencia de radioisótopos (RPS). La impedancia de radiación es necesaria para determinar la corriente que circula por todo el circuito de la amarra. En un modelo de plasma frío, la radiación ocurre principalmente en los modos de Alfven y magnetosónica rápida, mostrando un elevado índice de refracción. Se ha estudiado la impedancia de radiación en amarras con recubrimiento aislante para los dos modos de radiación y cada una de las misiones. A diferencia del caso ionosférico terrestre, la baja densidad y el intenso campo magnético que aparecen en el entorno de Júpiter consiguen que la girofrecuencia de los electrones sea mucho mayor que la frecuencia del plasma; esto hace que el espectro de potencia para cada modo se modifique substancialmente, aumentando la velocidad de Alfven. Se ha estimado también la impedancia de radiación para amarras sin aislante conductor. En la misión LJO, un vehículo espacial bajando lentamente la altitud de su órbita permitiría estudiar la estructura del campo magnético y composición atmosférica para entender la formación, evolución, y estructura de Júpiter. Adicionalmente, si el contactor (cátodo) se apaga, se dice que la amarra flota eléctricamente, permitiendo emisión de haz de electrones que generan auroras. El continuo apagado y encendido produce pulsos de corriente dando lugar a emisiones de señales, que pueden ser utilizadas para diagnóstico del plasma jovial. En Órbita Baja Jovial, los iones que impactan contra una amarra polarizada negativamente producen electrones secundarios, que, viajando helicoidalmente sobre las líneas de campo magnético de Júpiter, son capaces de alcanzar su atmósfera más alta, y, de esta manera, generar auroras. Se han identificado cuáles son las regiones donde la amarra sería más eficiente para producir auroras. iic) Otra aplicación científica sugerida para la misión LJO es la detección de granos cargados que orbitan cerca de Júpiter. Los electrones de alta energía en este ambiente pueden ser modelados por una distribucción no Maxwelliana conocida como distribución kappa. En escenarios con plasmas complejos, donde los campos eléctricos en Júpiter pueden acelerar las cargas hasta velocidades que superen la velocidad térmica, este tipo de distribuciones son muy útiles. En este caso las colas de las distribuciones de electrones siguen una ley de potencias. Se han estudiado las fluctuaciones de granos cargados para funciones de distribución kappa. iii) La tesis concluye con el análisis para deorbitar satélites con amarras electrodinámicas que siguen una Órbita Baja Terrestre (LEO). Una amarra debe presentar una baja probabilidad de corte por pequeño debris y además debe ser suficientemente ligero para que el cociente entre la masa de la amarra y el satélite sea muy pequeño. En este trabajo se estiman las medidas de la longitud, anchura y espesor que debe tener una amarra para minimizar el producto de la probabilidad de corte por el cociente entre las masas de la amarra y el satélite. Se presentan resultados preliminares del diseño de una amarra con forma de cinta para deorbitar satélites relativamente ligeros como Cryosat y pesados como Envisat. Las misiones espaciales a planetas exteriores y en el ámbito terrestre plantean importantes retos científico-tecnológicos que deben ser abordados y solucionados. Por ello, desde el inicio de la era espacial se han diseñando novedosos métodos propulsivos, sistemas de guiado, navegación y control más robustos, y nuevos materiales para mejorar el rendimiento de los vehículos espaciales (SC). En un gran número de misiones interplanetarias y en todas las misiones a planetas exteriores se han empleado sistemas de radioisótopos (RPS) para generar potencia eléctrica en los vehículos espaciales y en los rovers de exploración. Estos sistemas emplean como fuente de energía el escaso y costoso plutonio-238. La NASA, por medio de un informe de la National Academy of Science (5 de Mayo del 2009), expresó una profunda preocupación por la baja cantidad de plutonio almacenado, insuficiente para desarrollar todas las misiones de exploración planetaria planeadas en el futuro [81, 91]. Esta circustancia ha llevado a dicha Agencia tomar la decisión de limitar el uso de estos sistemas RPS en algunas misiones de especial interés científico y una recomendación de alta prioridad para que el Congreso de los EEUU apruebe el reestablecimiento de la producción de plutonio-238, -son necesarios cerca de 5 kg de este material radiactivo al año-, para salvaguardar las misiones que requieran dichos sistemas de potencia a partir del año 2018. Por otro lado, la Agencia estadounidense ha estado considerando el uso de fuentes de energía alternativa; como la fisión nuclear a través del ambicioso proyecto Prometheus, para llevar a cabo una misión de exploración en el sistema jovial (JIMO). Finalmente, dicha misión fue desestimada por su elevado coste. Recientemente se han estado desarrollando sistemas que consigan energía a través de los recursos naturales que nos aporta el Sol, mediante paneles solares -poco eficientes para misiones a planetas alejados de la luz solar-. En este contexto, la misión JUNO del programa Nuevas Fronteras de la NASA, cuyo lanzamiento fue realizado con éxito en Agosto de 2011, va a ser la primera misión equipada con paneles solares que sobrevolará Júpiter en el 2015 siguiendo una órbita polar. Anteriormente se habían empleado los antes mencionados RPS para las misiones Pioneer 10,11, Voyager 1,2, Ulysses, Cassini-Huygens y Galileo (todas sobrevuelos excepto Galileo). Dicha misión seguirá una órbita elíptica de alta excentricidad con un periápside muy cercano a Júpiter, y apoápside lejano, evitando que los intensos cinturones de radiación puedan dañar los instrumentos de navegación y científicos. Un tether o amarra electrodinámica es capaz de operar como sistema propulsivo o generador de potencia, pero también puede ser considerado como solución científicotecnológica en misiones espaciales tanto en LEO (Órbita Baja Terrestre) como en planetas exteriores. Siguiendo una perspectiva histórica, durante las misiones terrestres TSS-1 (1992) y TSS-1R (1996) se emplearon amarras estandard con recubrimiento aislante en toda su longitud, aplicando como terminal anódico pasivo un colector esférico para captar electrones. En una geometría alternativa, propuesta por J. R. Sanmartín et al. (1993) [93], se consideró dejar la amarra sin recubrimiento aislante (“bare tether”), y sin colector anódico esférico, de forma que recogiera electrones a lo largo del segmento que resulta polarizado positivo, como si se tratara de una sonda de Langmuir de gran longitud. A diferencia de la amarra estandard, el “bare tether” es capaz de recoger electrones a lo largo de una superficie grande ya que este segmento es de varios kilómetros de longitud. Como el radio de la amarra es del orden de la longitud de Debye y pequeño comparado con el radio de Larmor de los electrones, permite una recolección eficiente de electrones en el régimen OML (Orbital Motion Limited) de sondas de Langmuir. La corriente dada por la teoría OML varía en función del perímetro y la longitud. En el caso de una cinta delgada, el perímetro depende de la anchura, que debe ser suficientemente grande para evitar cortes producidos por debris y micrometeoritos, y suficientemente pequeño para que la amarra funcione en dicho régimen [95]. En el experimento espacial TSS-1R mencionado anteriormente, se identificó una recolección de corriente más elevada que la que predecía el modelo teórico de Parker- Murphy, debido posiblemente a que se utilizaba un colector esférico de radio bastante mayor que la longitud de Debye [79]. En el caso de una amarra “bare”, que recoge electrones a lo largo de gran parte de su longitud, se puede producir un fenómeno conocido como atrapamiento adiabático de electrones (adiabatic electron trapping) [25, 40, 60, 73, 74, 97]. En el caso terrestre (LEO) se da la condición mesotérmica en la que la amarra se mueve con una velocidad muy superior a la velocidad térmica de los iones del ambiente y muy inferior a la velocidad térmica de los electrones. J. Laframboise y L. Parker [57] mostraron que, para una función de distribución quasi-isotrópica, la densidad de electrones debe entonces ser necesariamente inferior a la densidad ambiente. Por otra parte, debido a su flujo hipersónico y a la alta polarización positiva de la amarra, la densidad de los iones es mayor que la densidad ambiente en una vasta región de la parte “ram” del flujo, violando la condición de cuasi-neutralidad,-en una región de dimensión mayor que la longitud de Debye-. La solución a esta paradoja podría basarse en el atrapamiento adiabático de electrones ambiente en órbitas acotadas entorno al tether. ABSTRACT New technological and scientific applications by electrodynamic tethers for planetary missions are analyzed: i) A set of cylindrical, parallel tethers (electric solar sail or e-sail) is considered for an interplanetary mission; ions from the solar wind are repelled by the high potential of the tether, providing momentum to the e-sail. An approximated model of a stationary potential for a high solar wind flow is considered. With the force provided by a negative biased tether, an indirect method for the optimization trajectory of an Earth-to-Jupiter orbit transfer is analyzed. ii) The deployment of a tether from the e-sail allows several scientific applications in Jupiter. iia) It might be used as a source of radiative waves for plasma diagnostics and artificial aurora generator. A conductive tether orbiting in the Jovian magnetosphere produces waves. Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA’s Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. An estimation of the radiation impedance of bare tethers is also considered. iib) In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics. In LJO, the ions impacting against the negative-biased tether do produce secondary electrons, which racing down Jupiter’s magnetic field lines, reach the upper atmosphere. The energetic electrons there generate auroral effects. Regions where the tether efficiently should produce secondary electrons are analyzed. iic) Other scientific application suggested in LJO is the in-situ detection of charged grains. Charged grains naturally orbit near Jupiter. High-energy electrons in the Jovian ambient may be modeled by the kappa distribution function. In complex plasma scenarios, where the Jovian high electric field may accelerate charges up superthermal velocities, the use of non-Maxwellian distributions should be considered. In these cases, the distribution tails fit well to a power-law dependence for electrons. Fluctuations of the charged grains for non-Mawellian distribution function are here studied. iii) The present thesis is concluded with the analysis for de-orbiting satellites at end of mission by electrodynamic tethers. A de-orbit tether system must present very small tether-to-satellite mass ratio and small probability of a tether cut by small debris too. The present work shows how to select tape dimensions so as to minimize the product of those two magnitudes. Preliminary results of tape-tether design are here discussed to minimize that function. Results for de-orbiting Cryosat and Envisat are also presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA's planned Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. Finally, an estimation of the radiation impedance of bare tethers is considered. In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study of the Vertical-Cavity Semiconductor Optical Amplifiers (VCSOAs) for optical signal processing applications is increasing his interest. Due to their particular structure, the VCSOAs present some advantages when compared to their edge-emitting counterparts including low manufacturing costs, high coupling efficiency to optical fibers and the ease to fabricate 2-D arrays of this kind of devices. As a consequence, all-optical logic gates based on VCSOAs may be very promising devices for their use in optical computing and optical switching in communications. Moreover, since all the boolean logic functions can be implemented by combining NAND logic gates, the development of a Vertical-Cavity NAND gate would be of particular interest. In this paper, the characteristics of the dispersive optical bistability appearing on a VCSOA operated in reflection are studied. A progressive increment of the number of layers compounding the top Distributed Bragg Reflector (DBR) of the VCSOA results on a change on the shape of the appearing bistability from an S-shape to a clockwise bistable loop. This resulting clockwise bistability has high on-off contrast ratio and input power requirements one order of magnitude lower than those needed for edge-emitting devices. Based on these results, an all-optical vertical-cavity NAND gate with high on-off contrast ratio and an input power for operation of only 10|i\V will be reported in this paper.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present simulation results on how power output-input characteristic Instability in Distributed FeedBack -DFB semiconductor laser diode SLA can be employed to implemented Boolean logic device. Two configurations of DFB Laser diode under external optical injection, either in the transmission or in the reflective mode of operation, is used to implement different Optical Logic Cells (OLCs), called the Q- and the P-Device OLCs. The external optical injection correspond to two inputs data plus a cw control signal that allows to choose the Boolean logic function to be implement. DFB laser diode parameters are choosing to obtain an output-input characteristic with the values desired. The desired values are mainly the on-off contrast and switching power, conforming shape of hysteretic cycle. Two DFB lasers in cascade, one working in transmission operation and the other one in reflective operation, allows designing an inputoutput characteristic based on the same respond of a self-electrooptic effect device is obtained. Input power for a bit'T' is 35 uW(70uW) and a bit "0" is zero for all the Boolean function to be execute. Device control signal range to choose the logic function is 0-140 uW (280 uW). Q-device (P-device)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Direct optical modulation at 2.5 Gb/s with amplitude of more than 0.5 W has been demonstrated in single longitudinal mode distributed Bragg reflector tapered lasers emitting at 1060 nm with separated injection of the ridge waveguide and tapered sections. The modulating signal of ~110 mA peak to peak was applied to the ridge waveguide section, yielding a high modulation efficiency of ~5 W/A. The large-signal frequency response of the experimental set-up was limited by the bandwidth of the electrical amplifier rather than by the internal dynamics of the laser, indicating that higher bit rates could be achieved with improved driving electronics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We analyze the gain-switching dynamics of two-section tapered lasers by means of a simplified three-rate-equation model. The goal is to improve the understanding of the underlying physics and to optimize the device geometry to achieve high power short duration optical pulses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study experimentally the dynamic properties of a fully integrated high power master-oscillator power-amplifier emitting at 1.5 μm under continuous wave and gain-switching conditions. High peak power (2.7 W) optical pulses with short duration (~ 110 ps) have been generated by gain switching the master-oscillator. We show the existence of working points at very close driving conditions with stable or unstable regimes caused by the compound cavity effects. The optical and radio-frequency spectra of stable and unstable operating points are analyzed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A power generation scheme based on bare electrodynamic tethers (EDT), working in passive mode is investigated for the purpose of supplying power to scientific missions at Saturn. The system employs a spinning EDT on a lowaltitude polar orbit which permits to efficiently convert plasmasphere energy into useful power. After optimizing the tether design for power generation we compute the supplied power along the orbit and the impact of the Lorentz force on the orbital elements as function of the tether and orbit characteristics. Although uncertainties in the current ionosphere density modeling strongly affect the performance of the system the peak power density of the EDT appears be greater than conventional power systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comúnmente la Arquitectura se manifiesta en los edificios como un hecho de la realidad que tiene siempre carácter contemporáneo y ése debe ser el valor supremo de un arte que no distingue entre antiguo y moderno, por afectar al presente y ser contemporáneo como experiencia. Los objetos se insertan irremediablemente en su medio e incluso llegan a definirlo en ocasiones: así, arquitectura y paisaje, aparecerán a veces confundidos con diferencias difíciles de determinar. El término “paisaje” es relativamente moderno y se deriva de ciertas representaciones gráficas o pictóricas producidas en Occidente en época algo posterior al Renacimiento. No obstante, el hecho de que una palabra se pueda escribir o se cite no quiere decir que la realidad a la que responde no pueda existir, pues lo escrito es solamente un medio de expresión, y es obvio que existen otros quizá más antiguos y de idéntica importancia, pues la propia escritura no es más que el reflejo de un fenómeno que ya se ha producido con anterioridad. Parece así que el testimonio de la realidad viene dado por distintos contextos en lo que suele llamarse “cultura” de modo que las culturas pueden tener aspectos de gran interés mediante diferentes sistemas de expresión variados sin que eso tenga que pasar forzosamente por el filtro de un alfabeto y una escritura. A tenor de los primeros descubrimientos, parece que la cuestión de escribir tuvo originalmente un carácter de constatación de apunte contable y tampoco se puede establecer con certeza si algunos utilizaron la escritura como el so-porte adecuado para referir mitos o historias, pues la Arqueología no ha proporcionado sino testimonios fragmentarios; de lo que si está repleta sin duda la historia es de apuntes contables. Otra cuestión que suscita dudas es la propia definición de escritura, pues parece que los más antiguos modos de expresión escrita se reducen a pictogramas que resultan aún indescifrables. Lenguas y toponimia son también herramientas muy útiles para bucear en el pasado, pero aún así persisten dudas en las escrituras que pro-vienen de las representaciones primordiales: la propia escritura en sus orígenes parece alimentarse de las propias intuiciones inmediatas de la representación, algo que evolucionaría representando esa realidad urgente e inmediata del control o el abastecimiento que luego se convertirían en los fragmentos de texto que han podido conservarse. Es notorio, sin embargo, que ese conjunto enorme de convenios gráficos estaba sujeto a la palabra y la desaparición de las culturas determinó también la desaparición consecuente de sus lenguas, y esos signos - fueran o no escritura - han pasado definitivamente a las zonas oscuras del conocimiento. Escribir supone también disponer de capacidad de abstracción gráfica que diferencie la palabra y la cosa, y es posible que la razón que llevara a ese descubrimiento fuera simplemente el de una economía de signos, pues escritura y lenguaje son limitados por definición, mientras que las cosas del mundo son innumerables: ningún idioma contiene todas las palabras para describir todo lo que puede aparecer. Aparentemente, ese el motivo por el cual existe un localismo – un término específico que refiere algo que existe en un lugar y no en otros - en lo que se refiere a dar el nombre a la cosa y también fuente de paradigma entre los pueblos que se consideran primitivos y los que se consideran civilizados. Debe tenerse en cuenta también que esa transposición se da en ambos sentidos, de modo que las culturas más aisladas también incorporan conceptos que carecen de una explicación racional consistente. Las mitologías son así eternas, pues sirven para explicar realidades que carecen de un entendimiento alcanzable y está también bastante claro que los lenguajes resultan ser un enigma, como realidad autónoma que queda en-cerrada y se explica en sí misma. Parece también que los primeros en escribir las consonantes aisladas fueron los pueblos semíticos occidentales de las orillas del Mediterráneo, pueblos que crearon un alfabeto silábico que llegó a ser utilizado incluso por los tartesios en el sur de la península ibérica como el primer alfabeto de toda Europa occidental. Resulta patente que el término “paisaje” se ha nutrido siempre de representaciones, bien escritas o artísticas, pero queda también claro que esas representaciones se suponen derivadas de la creencia en una idea de paisaje como algo que se ve representado en sí mismo, es decir, como la imagen de una realidad externa situada fuera del individuo. Eso es un hecho trascendente, pues el paisaje requiere lejanía de la cosa, de modo que el actor – aún sabiéndose inserto en su paisaje – es incapaz de percibirlo desde dentro. En el paisaje ocurre igual que en un teatro o en una representación: los actores son conscientes de su papel y su posible cometido, pero no son los que realmente pueden disfrutar de la eficacia o de la propia presencia de la obra, pues forman parte de ella. La idea de paisaje proviene de una lectura externa a la de los propios protagonistas del drama, de modo que si quieren ser un crítico del paisaje se debe abandonar la representación para mirar el espectáculo desde una distancia adecuada, al fin y a cabo externa. De ese modo, aparece la primera constatación del hecho del paisaje como una realidad construida por objetos y personajes, pero, sobre todo, es una realidad construida por miradas. Llama también la atención otorgada en las lecturas de los especialistas hacia esa referencia externa - artística si se quiere - sobre el término “paisaje”, de modo que la bibliografía no especializada sobre el particular siempre acaba en tratados de pintura o poesía. Parece sin embargo que el hombre y sus paisajes son realidades indisolubles desde la propia aparición de la especie, de modo que llevar la cuestión hacia términos exclusivamente esteticistas parece una posición parcial. Hombre y medio han formado siempre una sola unidad, aunque esa unidad se haya convertido en determinados casos en sinónimo de depredación y destrozo. Sin embargo, esa destrucción crea igualmente un paisaje como desolación que es resultado del propio quehacer del hombre: elementos que también poseen un contenido sustancial de memoria en los paisajes industriales como un momento de la Historia previo a la automatización y a la globalización de la vida actuales. Quizá el concepto más interesante desde el punto de vista teórico sea precisamente el de esa cualidad del paisaje como mirada, algo externo producido por el contemplador en un momento ajeno a la pertenencia, una mirada que no es tan sólo estética sino comprensiva, gozosa, activa o analítica - pues existen tantas maneras de mirar como sujetos - sin que pueda definirse con precisión esa contemplación más que en términos que alcanzan la propia individualidad. En términos poéticos, también podría establecerse como ese conjunto de miradas individuales crean también una estructura que hace que ese paisaje se valore y se comprenda, de modo que desde ese punto de vista ese paisaje supone una creación colectiva. Con respeto o como depredador, el hombre se ha instalado en su medio, y al hacerlo, ha dejado huellas dentro del propio paisaje que hacen que tome una determinada significación. Naturalmente, existe una teoría que distingue entre “país” y “paisaje”, asumiendo para el primero la noción exclusiva de territorio en la cual el hombre no tiene papel estético alguno. He intentado muchas veces comprender esa posición, sin acabar de entender el planteamiento que la sustenta: parece que la visión de la cosa estará siempre humanizada, aún en las zonas “vírgenes” o intactas, pues la propia visión hace que el objeto se modifique en su propia unidad perceptiva, creando una curiosa indeterminación que lleva a los conocidos equívocos entre imagen real y representación. Efectivamente, la visión de la cosa requiere de una cultura y unos medios que la informan, de modo que un texto, una pintura, una descripción o una fotografía quedarán ya humanizadas por el propio hecho de ser informadas, pues ello otorga una forma a priori. De ese modo, el paisaje figura inscrito en una función que establece tanto aspectos de un paisaje posible como aspectos del paisaje descrito y solamente podrá hablarse sobre la potencialidad del estado final de ese paisaje y nada del propio paisaje en sí, mientras ese paisaje no quede humanizado por el propio observador. Esta cuestión obliga a elegir una definición de paisaje alejada de presupuestos esteticistas para acercarla a los puramente culturales, de modo que no existe otra vía para la investigación que contemplar esa realidad física en función de las coordenadas del hombre que la habita, dotada del contenido correspondiente a esa revelación. Lejos de las posiciones de la geomorfología, el término “paisaje” implicará así unas condiciones determinadas de contemplación por parte de un sujeto por el cual el espectáculo queda humanizado en dicho acto.Cabe pensar también si no es cierto que todos los paisajes requieren de esa condición humanizada, pues aunque no estén habitados están siempre ocupados por esa mirada que los habita, al igual que un escenario sin público que carece de vigencia. A partir de ahí se sitúan las coordenadas en donde este trabajo configura la presencia de la arquitectura en la definición del paisaje, una premisa que parece ya venir otorgada desde el principio, pues esa misma mirada del espectador ya está dotando de un sentido de orden y jerarquía a la contemplación, unas cualidades que están en la base de toda actividad arquitectónica, De hecho la propia definición de “monumento natural” - en si misma una contradicción – expresa ese conflicto, dotado de un fenómeno de admiración y solape entre cultura y naturaleza, como conceptos enfrentados desde su origen. La conclusión sobre el dilema propuesta en la tesis no ha sido otra que suponer que esas dos realidades que son la cultura y el paisaje se han solapado desde el principio de los tiempos del hombre formando un binomio indeslindable. Se ha dicho antes que el proceso de invasión del territorio por el hombre es significativo, y esa significación es la que origina una creación autónoma que se aísla como un concepto abstracto de los entes naturales, tomándolos como material de trabajo, y estableciendo una oposición conceptual en la realidad perforada e interpretada por el hombre que viene a oponerse a lo que supone la caja cerrada e ignota del enigma del mundo. La cuestión de la significación del hombre sobre el territorio se subsume en la creación de unos productos que permanecen y que son testimonio de la propia cultura, de forma que la cantidad de rastro que el hombre deja sobre el territorio contribuye en mayor medida a la cualificación del paisaje como concepto. Eso lleva a establecer que cualquier paisaje - por el mero hecho de serlo y ser definido así – es ya cultural, puesto que está configurado por los productos de la cultura. Las palabras que puedan quedar encerradas en las piedras de los monumentos o de las ciudades son las de los hombres que trabajaron allí, y también las de los que las habitaron: más aún, el propio sentido del paisaje y su conservación vienen determinados por la presencia del hombre como único interprete de conceptos como ecología o conservación, algo que se pone de manifiesto también en la espantosa devastación que producen los fenómenos propios de la naturaleza. La historia natural, al igual que la vida, están conformadas por éxito y devastación, sin que uno y otra tengan especial preferencia, pues la preferencia se alimenta de otra clase de conceptos. La cuestión de atribuir valores morales al mundo natural es algo muy antiguo, y quizá sea la fuente o el manantial de las primeras religiones, una cuestión que se une a la indefectible noción de mortalidad que define la existencia del hombre frente a la inmanencia de la naturaleza. Esa propia naturaleza está dotada intuitivamente de un carácter “inocente” suponiendo que la inocencia es lo opuesto a la sabiduría. La cuestión es bien otra, ya que la naturaleza no posee ni siquiera algo que pueda definirse como “carácter”, en el sentido personal del término. La cuestión no cae, evidentemente, del lado de las definiciones o de las cualidades, sino del propio análisis de la realidad que el hombre va construyendo, destruyendo, embelleciendo o perjudicando para definir el territorio que habita, interponiendo a su manera recursos, instalaciones y en definitiva todos los testimonios posibles como principal manifestación de su esencia. Entre los artefactos que el hombre produce, uno de los más persistentes y más conspicuamente descritos es el de la arquitectura - entendida aquí en un sentido amplio - es decir, como el conjunto de modificaciones del espacio y del territorio. El espacio se puede modificar de muchos modos, pero en cualquiera de los casos constituye una de las huellas más características que el hombre establece como manifestación física de su propio ser discursivo. También la arquitectura ha demostrado ser una de los fenómenos más persistentes, incluso más que la propia lengua que la origina en su discurso primero antes que pueda ac-cederse a una idea sobre la conformación del material. Es paradigmático que el episodio descrito sobre la Torre de Babel en la Biblia la cuestión de la ambición de los hombres frente a Dios, representada precisamente en una arquitectura, se asimile a la discusión sobre el lenguaje primordial. La cuestión no es baladí, pues el fenómeno de la creación es algo que se concede exclusivamente a los dioses, que por esa razón habitan los territorios a los que los hombres no pueden llegar; territorios de albergue en los que las mitologías sitúan a dioses y demonios, con amplios espacios intermedios donde situar a las divinidades menores, héroes o seres híbridos en los que la coyunda de los dioses con los humanos produce sujetos que alivian el sentido de la mortalidad. El comentario del Génesis también concede un valor a la técnica, al mito de Prometeo y al fuego como creador de excelencia. Frente al progreso prometeico, se postula el valor divino, y la única forma posible de paliar ese progreso es la confusión del lenguaje, pues eso será lo que produzca la dispersión y la falta de acuerdo. La cuestión también puede explicar esa afición tan común por lo canónico en arquitectura que se mantiene a lo largo de grandes períodos, al igual que una gran máquina de inercia. Parece que los conceptos primordiales de la arquitectura basados en elementos simples como el hito, el dintel, lo recto y lo curvo, la rampa o la escalera, y el uso distinto o cualificado que se otorga a la piedra, el ladrillo, la madera o el metal como componentes primordiales del material arquitectónico se haya mantenido a lo largo de muchos milenios sin apenas cambios, al igual que ocurre con las costumbres alimenticias que siguen una progresión ascendente a través de lo crudo, lo asado y lo cocido, hasta obtener distintos grados de refina-miento, pero que siempre se sustentan en la sensación primigenia. El descubrimiento de la arquitectura proviene de un cierto manejo de las dimensiones, y consiguientemente de la geometría. Pero la geometría es cosa abstracta al igual que el lenguaje, de modo que para poder realizar arquitectura se hace necesaria esa capacidad de abstracción primera que luego permite la realización de un dispositivo. La realidad y su número exhiben un divorcio, al igual que las cosas y sus nombres exhiben el suyo, y el análisis numérico es solamente una forma de ver la realidad, una forma rigurosa y exacta – aunque parcial - que solamente representa el modelo ideal al cual la realidad se aproxima en mayor o menor medida: esa aproximación matemática hace que el universo pueda condensarse parcialmente en números, al igual que la realidad puede condensarse en nombres, pero ni el nombre ni el número reflejarán el mundo en toda su complejidad. El número es quizá solamente un medio de describir las cosas, como lo serían las formas puras que responden a una configuración matemática que pueda producirse en teoría en cualquier parte del Universo. Sin embargo, para el ejercicio de la arquitectura es preciso acudir a esa simplificación que exige la visión abstracta del plano como una sección cierta realidad como un corte abstracto del elemento considerado. Con su traza o sin ella, con la propia expresión matemática que lo describa o sin precisarla, esa intuición del plano como elemento generador del espacio es anterior a aquella expresión, al igual que el habla fue anterior a la escritura, pues solamente se produjo a través de ella y como refuerzo y sustituto de la memoria. Existen así abstracciones de la memoria que aparecen derivadas de los signos de la naturaleza aparecidos solamente de forma eventual y fragmentaría: así ocurre con la línea, el cuadrado y el círculo, formas iniciales y abstractas sonsacadas en cierta medida de la observación que dan origen a los primeros signos de la arquitectura primordial, de modo que cuadrados y círculos, elevados a prismas y superficies esféricas o esferoides aparecen en tumbas y edificios elementales de los primeros tiempos mediante una geometría primordial que se superpone al paisaje en el que se inserta. Es cierto también que esas formas se encuentran ya aproximadas en objetos que se encuentran en el medio físico, líneas en extremidades, ramas y miembros; ángulos rectos en algunos cristales que se observan mediante corte o formas circulares en astros y cráteres, pero esa realidad solamente presenta su forma aproximada y no su abstracción pura, de igual modo que el jeroglífico propondrá al ave rapaz para representar la idea de vigilancia y la buena vista, o incluso que la imagen del propio ojo sustituya la idea del Dios que todo lo ve en las culturas anti-guas. La elección fue resuelta, después de muchos intentos y aproximaciones, con la adopción del ángulo recto como un artificio fácil para el replanteo a través del triángulo sagrado 3:4:5 que ya se utilizó para construir las pirámides de Egipto, y que dio origen también a la mayor parte del urbanismo antiguo, coexistiendo con la forma circular primordial en el tipo denominado “tholo”. Aquella trama cuadrangular era uno de los patrones de relleno del espacio más comunes y compactos, y esa fue probablemente la razón por la que en tiempos muy posteriores fuera adoptada como una forma eficaz permanente de organización frente al desorden topológico que procura el conjunto de asociación de plantas circulares. Otra cuestión paradigmática es que esos conceptos primordiales e ignotos - que convergen en el mismo origen de las civilizaciones - se conviertan luego en algo canónico, a través del uso. El canon en sí mismo es algo ideal, como una norma aplicable a objetos de una realidad que ha sido creada solamente como indicio del ca-non, algo abstracto que tiene proporciones estrictas que son siempre las mismas y no obedece a criterios racionales: será absurdo sin embargo buscar el canon griego entre los templos de época como algunos lo hicieron, pues los edificios solamente se aproximan a los ejemplos canónicos y por esa razón se habla del “dórico del Partenón” que es diferente del de Egina o del de Paestum, siendo todos ellos evidentemente dóricos. Sin embargo, esa idea resulta útil al tratadista, al teórico de la arquitectura y al historiador, aun-que solamente refleje una vaga idea de lo que sucede más allá del tratado. Otra cuestión es la sutileza de los ejemplos de arquitectura, y del mismo modo que los cuerpos de los seres vivos jamás son simétricos, aunque respondan a un diseño simétrico general derivado de las condiciones de la división celular, los edificios supuestamente canónicos en los que los especialistas se inspiraron para definir los órdenes clásicos no disponen de esa simetría modular exacta, sino que adaptan un modelo general al lugar siempre cambiante del emplazamiento, es decir, se adaptan con habilidad a la vez que configuran el paisaje en el que se insertan. La luz de los distintos intercolumnios del Partenón es ligeramente distinta, aunque guarde un evidente sentido de simetría axial, de manera que aquellos “órdenes” que formaron la Teoría de la Arquitectura no son más que una bella interpretación sectorial de la arquitectura antigua elaborada por los tratadistas del Renacimiento y, posteriormente, por los neoclásicos. Parece, sin embargo, que ese ansia por el canon como claridad de lenguaje es algo consustancial al desarrollo de la arquitectura, una lingua franca que tiende a evitar la dispersión producida entre los mortales por los dioses antiguos, de modo que si no era posible llegar al cielo de los dioses se procuró que el lenguaje de la Tierra fuera al menos inteligible para poder entenderse entre los hombres. Parece que la estructura del poder siempre requirió de un determinado nivel de organización, y también que las instrucciones se entendieran con claridad: parece que en nuestros tiempos esos antiguos cánones se han sustituido por la obediencia a normas abstractas, dictadas por instituciones también algo abstractas y que tienen nombres divertidos compuestos por siglas, aunque no se conozca bien su virtud. El canon actual está constituido por “normas” que dejan tranquilos a algunos, aunque parece quizá que todo ese entramado formal que sirve como anestesia para el cuerpo social procura también la destrucción de los bosques en formas de montañas ingentes de papel burocrático. Durante muchos siglos las normas fueron otras, en la forma de un canon del cual nadie podía escapar: aún así, mediante la utilización de cánones o sin ellos, la arquitectura prosperó en la civilización desde los primeros refugios cavernarios o los abrigos primigenios y de ese modo fue configurando la realidad, es decir, el paisaje. Como antes se dijo, ese es un viaje de ida y vuelta en el cual ambos se confundían y subsumían: el manejo de las formas y lenguajes de la arquitectura posibilitaría con el tiempo la distinción entre el campo en donde reina el caos y la ciudad, en donde reina teóricamente el orden, creando un divorcio que duraría milenios y que aún persiste. Esa oposición generaría también una forma de paisaje y una serie de usos simbólicos y sagrados de los elementos de la arquitectura - como son puertas y murallas - que se han mantenido conceptualmente aunque hoy las ciudades ya no posean murallas físicas, ni puertas que se cierran con la llegada de la noche. En ese sentido, la arquitectura ha podido definir el paisaje, entendiendo la arquitectura no solamente como los edificios en sí, sino como el hecho de la manifestación del hombre sobre el territorio, de modo que no podrá hablarse de paisaje sin su arquitectura, del mismo modo que no puede hablarse de paisaje sin hombres. Por esta razón, la Tesis habla sobre Arquitectura y Paisaje, pero más particularmente sobre el hecho de la arquitectura en la definición del paisaje, es decir, de como los hechos arquitectónicos van a determinar o no la cualidad y la calificación de un paisaje. Deberá partirse en primer lugar de una definición de lo que se entiende y se ha entendido comúnmente por paisaje: igualmente, y habida cuenta del contexto en el que sitúa el propio trabajo de tesis, la cuestión solamente se circunscribirá a lo que se entiende como cultura occidental, pues el desarrollo de la civilización presenta siempre un color local que hace que el análisis de un fenómeno de esta envergadura tenga distintas connotaciones en las distintas áreas de civilización. De igual modo, y habida cuenta también que el paisaje se construye a través de todas las manifestaciones culturales, se hará a veces necesario indagar en otras disciplinas no arquitectónicas para comprender el alcance de algunos casos en los cuales los restos arquitectónicos han desaparecido, o en los que subsisten escasas trazas. Una definición tan amplia de la Arquitectura llevaría a escribir un relato sobre toda la cultura occidental y por ese motivo solamente se han esbozado ideas sobre la aparición de esos signos sobre el paisaje basados en elementos antiguos y primigenios que se repiten con insistencia y van dando lugar al variado repertorio de la arquitectura occidental cómo conformación de ideas sobre el me-dio y sobre el mundo que se percibe y se habita. ABSTRACT About Architecture in defining Landscape. Abstract Architecture is commonly manifested in buildings as a fact of reality that has always a contemporary character and that should be the highest value of an art that does not distinguish between ancient and modern, to affect the present and be contemporary as experience. Objects are inserted irremediably in their midst and even sometimes come to define it: thus, architecture and landscape, appear sometimes confused with differences difficult to determine. However, the term "landscape" is relatively modern and is derived from certain graphical or pictorial representations produced in the West in some subsequent period to the Renaissance. The fact that a word can be written or quoting does not mean that the reality that can not be answered, because the writing is only a mean of expression, and it is obvious that there are other and perhaps older equally important, because the writing itself is nothing more than the reflection of a phenomenon that has occurred before. It thus appears that the testimony of reality is given by different contexts in what is called "culture", so that cultures can have aspects of great interest by many different expression systems without this necessarily have to pass through the filter of alphabet and writing. Under the initial findings, it appears that the question of writing originally had a character and finding accounting entries, and it can not be established with certainty whether some used writing as the support appropriate to refer myths or stories, because archaeology has provided only fragmentary evidence. Another issue that raises questions is what can properly be defined as writing, it seems that the oldest modes are reduced to writing pictograms are still indecipherable. Languages and place names are also very useful tools for diving in the past, but still questions remain in the scriptures that come from the primordial representations: either it is very well defined what the own writing in its origins: the beginnings seem to feed on immediate intuitions of representation, which would evolve representing reality that urgent and immediate control or supply which is then inherited into fragments. It is noteworthy, however, that this huge set of graphics agreements was subject to the word and the disappearance of cultures determined also the consequent disappearance of their languages, and those signs - whether or not they write - have passed definitively to dark areas of knowledge. Writings supposed also the capacity of abstraction graph differentiates the word and the thing, and it is possible that the reason to carry this discovery was simply that of an economy of signs, for writing and language are limited by definition, while the things of the world are innumerable: no language contains all words to describe all that may appear. Apparently, that's why there is a localism - a specific term that refers to something that exists in one place and not in others - in regards to name the thing and also the source of paradigm among peoples are considered primitive and civilized. It should be noted also that transposition occurs in both directions, so that the most isolated cultures also incorporate concepts that lack a consistent rational explanation. Mythologies are eternal and therefore serve to explain realities that lack an understanding achievable and also pretty clear that languages happen to be an enigma, as an autonomous reality that is enclosed and explains itself. It also seems that the first to write consonants were isolated western Semitic peoples from the shores of the Mediterranean, peoples who created a syllabic alphabet came to be used even by tartesios in southern Iberia as the first alphabet in Western Europe. It is clear that the term "landscape" has always nurtured representations, either written or artis-tic, but it is also clear that these representations are assumed arising from belief in an idea of landscape as something that is represented in itself, as the image of a reality external located outside the individual. That is an important fact because the landscape requires remoteness of the thing, so that the actor - even knowing insert in landscape - is unable to perceive from within. The landscape is just as in a theatre or a performance: the actors are aware of their role and their possible role, but they are not the ones who can really enjoy the efficiency or the presence of the work itself, as part of it. The idea comes from an external landscape reading the principles of players in the drama, so if you want to be a critic of the landscape should leave the actual representation to watch the spectacle from a safe distance, finally external. Thus, the first finding of fact of the landscape appears as a reality constructed by objects and characters, but above all, a reality constructed by looks. Also noteworthy given the readings of specialists to the external reference - art if it could be - on the term "landscape", so no specialized literature on the subject always ends in treatises on painting or poetry. It seems however that the man and his landscapes are inseparable realities from the very onset of the species, so bring the issue into terms exclusively aesthetics seems a partial position. Man and environment have always been a single unit, but that unit has become synonymous with certain cases predation and destruction. Nevertheless, this destruction also creates a landscape as desolation that results from proper task of man elements that also have substantial contents of memory in industrial landscapes as a time of pre-automation history and globalization of current life. Perhaps the most interesting from a theoretical point of view is precisely that quality of landscape as something external produced by the viewer in a strange time of membership, a look that is not only aesthetic but sympathetic, joyful, active concept or analytical - because there are so many ways to look as subjects - it may not be precisely defined that contemplation rather than in terms that reach one's individuality. In poetic terms, it could also be set as the set of individual gazes also create a structure that makes this landscape is valued and understood, so from that point of view that landscape is a collective creation. With respect or as a predator, man has settled in his environment and in doing so has left traces in the landscape itself that make take a certain significance. Naturally, there is a theory that distinguishes what is "home" and what is "nature" providing for the first notion of the exclusive territory in which man has no aesthetic role. I tried many times to understand this position, without understanding the approach that supports: it seems that the vision of the thing is always humane, even in the "virgin" or untouched areas, as the vision itself makes the object modified in its own perceptual unit, creating a curious indeterminacy leading to the known misunderstandings between real image and representation. Indeed, the vision of the thing requires a culture and means that the report, so that a text, a picture, a description or photograph will be humanized by the very fact of being informed, as this provides a way a priori. Thus, the landscape provides a function that sets both aspects of a potential landscape as described aspects of the landscape and can only talk about the potential of the final state of the landscape, while the landscape remains humanized by the observer himself. This question forces to choose a definition of remote landscape budgets purely cultural, so there is another way for research to contemplate that physical reality in terms of the coordinates of the man who inhabits gifted content corresponding to that revelation. Far from the positions of the geomorphology, the term "landscape" and involve a certain condition by contemplation of a subject for which the show is humanized in the act. It should also consider, in the light of the above, if it is not true that all landscapes require that humanized condition, because although they are not inhabited they are always occupied by the look that dwells, like a stage without audience produces no consistent effect. From there the coordinates where this work sets the presence of architecture in defining landscape, a premise which seems to come from the beginning given lie, because that same look is already giving the viewer a sense of order and hierarchy to contemplation, qualities that are at the basis of all architectural activity, in fact the very definition of "natural monument" - in itself a contradiction - expresses this conflict, which has a phenomenon of admiration and overlap between culture and nature as concepts faced since its inception. The conclusion on the dilemma proposed in the thesis has not been another to assume that these two realities are the culture and landscape have overlapped since the beginning of man time forming a pair. It has been said before that the process of invasion of the territory by man is significant, and that meaning is the originating autonomous creation that is isolated as an abstract concept of nature, taking them as working material, and establishing a conceptual opposition in reality and punched by the man who comes to oppose representing the closed and unknown to the enigma of the world interpreted. The question of the significance of the man on the land is subsumed in the creation of products that remain and are testimony of their own culture, so that the trace amount that the man leaves the territory contributes most to the qualification landscape as a concept. That brought into any landscape - by the mere fact of being and being well defined - is already cultural, as it is configured by culture products. The words that can be locked in the stones of the monuments or cities are those of the men who worked there, and also of those who inhabited: even more, the sense of the landscape itself and its conservation are determined by the presence of man as the sole interpreter of concepts such as ecology or conservation, something which becomes manifest also in the awful devastation that produce the phenomena of nature. The natural history, like life, are shaped by success and devastation without special preference, the preference is used for feeding on other kinds of concepts. The question of moral values attributed to the natural world is very ancient, and may be the source or the source of the first religions, an issue that joins the unfailing notion of mortality that defines the existence of man against immanence of nature. That nature is endowed intuitively an "innocent" character assuming that innocence is the opposite of wisdom. The other issue is well, since nature does not even have what is defined as "character" because that is something that serves to qualify beings, but not objects. The question does not fall clearly on the side of the definitions or qualities, but from the analysis of the reality that man is building, destroying or damaging to define the territory, interposing his way resources facilities and possible witness as the main manifestation of its essence. Among the artifacts that man produces one of the most persistent and most conspicuously disclosed is architecture as a way of modification of space and territory. The space can be modified in many ways, but in either case is one of the most characteristic traces that man establishes as a physical manifestation of his own discourse being. Architecture has also proven to be one of the most persistent phenomena, even more than their own language that originates in his speech first. The paradigm wrote in the episode described on the Tower of Babel in the Bible shows the question of ambition of men before God - represented precisely in architecture - is assimilated to the discussion about the primary language. The issue is not trivial, since the phenomenon of creation is something that is granted exclusively to the gods, for that reason inhabit the territories to which men can not reach; territories where the hostel located mythologies gods and demons, with large gaps where to place the minor deities, heroes or hybrid beings where the yoke of the gods with human subjects produces relieving sense of mortality. The commentary on Genesis also gives a value to the art, the myth of Prometheus and fire as creator of excellence. In front of promethean progress, divine value is postulated, and the only possible way to alleviate this progress is the confusion of language, because that is what will produce the dispersion and lack of agreement. The issue may also explain such a common passion for the canonical architecture maintained throughout long periods, like a great machine inertia. It seems that the main concepts of architecture based on simple elements like milestone, lintels, straight and curved stairs or ramps, or other qualified and used are granted to the stone, brick, wood or metal as the primary components of the architectural material maintained throughout many millennia are almost unchanged, as is the case with the eating habits that follow a progression through the raw, the cooked and roasted or fried until obtain different degrees of refinement, but always are based on the primal feeling. The discovery of the architecture comes from a management dimensions, and consequently the geometry. But the geometry is abstract thing like the language so that to make architecture that first absorption capacity which then allows the realization of a device is necessary. Reality and its number exhibit a divorce, like things and their names displayed his; numerical analysis is just one way of seeing reality, rigorous and accurate - though partial - only represents the ideal model to which reality is coming to a greater or lesser extent: the mathematical approach makes the universe can condense on numbers, like reality may condense on names, but neither the name nor the number will reflect in all its complexity. The number is only a means of describing things, such as the pure forms that match setup a mathematical theory that occurs anywhere in the universe. However, for the practice of architecture is necessary to go to the simplification that requires abstract view of a section plane of reality, as an abstract element considered cutting. With its trace or not, with the mathematical expression that describes what or without clarify, this intuition of the plane as a generator of space predates his own expression, like speech preceded the writing, which only occurred through it and as reinforcement and replacement of memory. There are abstractions of memory displayed on the signs of nature only on casual and fragmentary, such as line, square and circle: those initials and abstract forms located in abstraction give rise to the first signs of primordial architecture, so that squares and circles, lifting two prisms and spheroids or spherical surfaces appear in tombs and elementary buildings the first few times, and that primordial geometry overlaps the landscape in which it is inserted. It is also true that these forms are approximate objects found in the physical environment, limb lines, branches and limbs; straight in some crystals angles observed by cutting or circular in stars and craters forms, but only the approximate shape and not its abstraction, just as the hieroglyphic of a falcon to represent the idea of surveillance presents the good view, or even the image of the eye itself replace the idea of the all-seeing God. The election was resolved, after many attempts and approaches, with the adoption of the right angle as an easy trick for stake through the sacred triangle 3:4:5 already used to build the pyramids of Egypt, and also gave rise to most of the old urbanism tend coexist with the primary circular form type called "Tholo". That frame homer was one of the fill patterns of common and compact space, and that was probably the reason why in much later times was adopted as a permanent effective form of organization against the topological disorder that seeks the set of association circular plants. Another issue is that these paradigmatic and unknown primary concepts - that converge at the origin of civilizations - then become something canon, through use. The canon itself is something ideal, as a rule for objects of a reality that has been created only as an indication of the ca-non, something abstract that has strict proportions are always the same and not due to rational criteria: be absurd however seek the Greek canon among the temples of time as some did, because the buildings only approximate the canonical examples and for that reason we speak of "doric from Parthenon" which is different from Aegina or Paestum, being all clearly doric. However, this idea is useful to scholar, the architectural theorist and historian, although it reflects only a vague idea of what happens beyond the book. Another issue is the subtlety of the examples of architecture, just as the bodies of living beings are never symmetrical, even if they involve a general symmetrical design derived from the conditions of cell division, the supposedly canonical buildings where specialists were inspired to define the classical orders do not have that exact modular symmetry, but a general model adapted to the ever changing location of the site shaping the landscape in which they are inserted. The light of the various bays of the Parthenon is slightly different, but keep a clear sense of axial symmetry, so that those "orders" that formed the theory of architecture are just a beautiful sectoral interpretation of ancient architecture developed by writers of the Renaissance and later by neoclassical. It seems, however, that craving for clarity of language canon as is inherent to the development of architecture, a lingua franca that tends to avoid scattering among mortals by the ancient gods, so if it was not possible the heaven of the gods sought the language of the Earth was at least intelligible to be understood. Power structure has always required a certain level of organization, and the instructions are clearly understood: it seems that in our times these ancient canons were replaced by obedience to abstract rules, issued by institutions also somewhat abstract and have funny names made up acronym, although not well known virtue. The current canon consists of "rules" that leave some quiet, although it seems that maybe all that interweaves-do formally serving as anaesthesia for the social body also seeks the destruction of forests in forms of huge mountains of bureaucratic paper. For many centuries were other rules, in the form of a canon which no one could escape: still using royalties or without them, civilization flourished in architecture from the earliest cave shelters or shelters and the primordial reality was setting mode in landscape. As noted above, this is a return trip in which both confused and subsumed: the management of forms and languages of architecture over time would allow the distinction between the field where chaos reigns and city, where order reigns theoretically creating a divorce that lasted millennia and still persists. This opposition also generate a form of landscape and a series of symbolic and sacred uses of architectural elements - such as doors and walls - which have remained conceptually although today the cities no longer having physical walls or doors close during the night. In this sense, the architecture could define the landscape, architecture is not only understood as the buildings themselves, but the fact of the manifestation of the man on the premises, so you can not speak without his landscape architecture, the same so we can not speak of landscape without men. For this reason, the thesis discusses architecture and landscape, but more particularly to the fact of architecture in defining landscape, as the facts of architectural or not will determine the quality and qualification of a landscape. One should begin first a definition of what is understood and has been commonly understood by landscape: equally, and given the context in which it places the own thesis work, the issue only be limited to what is understood as western culture, for the development of civilization always has a local colour that makes the analysis of a phenomenon of this magnitude have different connotations in different areas of civilization. Similarly, and given also that the landscape is constructed through all cultural manifestations, will sometimes necessary to investigate other non-architectural disciplines to understand the scope of some cases in which the architectural remains have disappeared, or the remaining few traces. Such a broad definition of architecture take to write a story about all of Western culture and for this reason only been sketched ideas about the appearance of these signs on the landscape based on ancient and primitive elements are repeated insistently and leading the varied repertoire of Western architecture shaping ideas about how the media and the world is perceived and inhabited.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los transistores de alta movilidad electrónica basados en GaN han sido objeto de una extensa investigación ya que tanto el GaN como sus aleaciones presentan unas excelentes propiedades eléctricas (alta movilidad, elevada concentración de portadores y campo eléctrico crítico alto). Aunque recientemente se han incluido en algunas aplicaciones comerciales, su expansión en el mercado está condicionada a la mejora de varios asuntos relacionados con su rendimiento y habilidad. Durante esta tesis se han abordado algunos de estos aspectos relevantes; por ejemplo, la fabricación de enhancement mode HEMTs, su funcionamiento a alta temperatura, el auto calentamiento y el atrapamiento de carga. Los HEMTs normalmente apagado o enhancement mode han atraído la atención de la comunidad científica dedicada al desarrollo de circuitos amplificadores y conmutadores de potencia, ya que su utilización disminuiría significativamente el consumo de potencia; además de requerir solamente una tensión de alimentación negativa, y reducir la complejidad del circuito y su coste. Durante esta tesis se han evaluado varias técnicas utilizadas para la fabricación de estos dispositivos: el ataque húmedo para conseguir el gate-recess en heterostructuras de InAl(Ga)N/GaN; y tratamientos basados en flúor (plasma CF4 e implantación de F) de la zona debajo de la puerta. Se han llevado a cabo ataques húmedos en heteroestructuras de InAl(Ga)N crecidas sobre sustratos de Si, SiC y zafiro. El ataque completo de la barrera se consiguió únicamente en las muestras con sustrato de Si. Por lo tanto, se puede deducir que la velocidad de ataque depende de la densidad de dislocaciones presentes en la estructura, ya que el Si presenta un peor ajuste del parámetro de red con el GaN. En relación a los tratamientos basados en flúor, se ha comprobado que es necesario realizar un recocido térmico después de la fabricación de la puerta para recuperar la heteroestructura de los daños causados durante dichos tratamientos. Además, el estudio de la evolución de la tensión umbral con el tiempo de recocido ha demostrado que en los HEMTs tratados con plasma ésta tiende a valores más negativos al aumentar el tiempo de recocido. Por el contrario, la tensión umbral de los HEMTs implantados se desplaza hacia valores más positivos, lo cual se atribuye a la introducción de iones de flúor a niveles más profundos de la heterostructura. Los transistores fabricados con plasma presentaron mejor funcionamiento en DC a temperatura ambiente que los implantados. Su estudio a alta temperatura ha revelado una reducción del funcionamiento de todos los dispositivos con la temperatura. Los valores iniciales de corriente de drenador y de transconductancia medidos a temperatura ambiente se recuperaron después del ciclo térmico, por lo que se deduce que dichos efectos térmicos son reversibles. Se han estudiado varios aspectos relacionados con el funcionamiento de los HEMTs a diferentes temperaturas. En primer lugar, se han evaluado las prestaciones de dispositivos de AlGaN/GaN sobre sustrato de Si con diferentes caps: GaN, in situ SiN e in situ SiN/GaN, desde 25 K hasta 550 K. Los transistores con in situ SiN presentaron los valores más altos de corriente drenador, transconductancia, y los valores más bajos de resistencia-ON, así como las mejores características en corte. Además, se ha confirmado que dichos dispositivos presentan gran robustez frente al estrés térmico. En segundo lugar, se ha estudiado el funcionamiento de transistores de InAlN/GaN con diferentes diseños y geometrías. Dichos dispositivos presentaron una reducción casi lineal de los parámetros en DC en el rango de temperaturas de 25°C hasta 225°C. Esto se debe principalmente a la dependencia térmica de la movilidad electrónica, y también a la reducción de la drift velocity con la temperatura. Además, los transistores con mayores longitudes de puerta mostraron una mayor reducción de su funcionamiento, lo cual se atribuye a que la drift velocity disminuye más considerablemente con la temperatura cuando el campo eléctrico es pequeño. De manera similar, al aumentar la distancia entre la puerta y el drenador, el funcionamiento del HEMT presentó una mayor reducción con la temperatura. Por lo tanto, se puede deducir que la degradación del funcionamiento de los HEMTs causada por el aumento de la temperatura depende tanto de la longitud de la puerta como de la distancia entre la puerta y el drenador. Por otra parte, la alta densidad de potencia generada en la región activa de estos transistores conlleva el auto calentamiento de los mismos por efecto Joule, lo cual puede degradar su funcionamiento y Habilidad. Durante esta tesis se ha desarrollado un simple método para la determinación de la temperatura del canal basado en medidas eléctricas. La aplicación de dicha técnica junto con la realización de simulaciones electrotérmicas han posibilitado el estudio de varios aspectos relacionados con el autocalentamiento. Por ejemplo, se han evaluado sus efectos en dispositivos sobre Si, SiC, y zafiro. Los transistores sobre SiC han mostrado menores efectos gracias a la mayor conductividad térmica del SiC, lo cual confirma el papel clave que desempeña el sustrato en el autocalentamiento. Se ha observado que la geometría del dispositivo tiene cierta influencia en dichos efectos, destacando que la distribución del calor generado en la zona del canal depende de la distancia entre la puerta y el drenador. Además, se ha demostrado que la temperatura ambiente tiene un considerable impacto en el autocalentamiento, lo que se atribuye principalmente a la dependencia térmica de la conductividad térmica de las capas y sustrato que forman la heterostructura. Por último, se han realizado numerosas medidas en pulsado para estudiar el atrapamiento de carga en HEMTs sobre sustratos de SiC con barreras de AlGaN y de InAlN. Los resultados obtenidos en los transistores con barrera de AlGaN han presentado una disminución de la corriente de drenador y de la transconductancia sin mostrar un cambio en la tensión umbral. Por lo tanto, se puede deducir que la posible localización de las trampas es la región de acceso entre la puerta y el drenador. Por el contrario, la reducción de la corriente de drenador observada en los dispositivos con barrera de InAlN llevaba asociado un cambio significativo en la tensión umbral, lo que implica la existencia de trampas situadas en la zona debajo de la puerta. Además, el significativo aumento del valor de la resistencia-ON y la degradación de la transconductancia revelan la presencia de trampas en la zona de acceso entre la puerta y el drenador. La evaluación de los efectos del atrapamiento de carga en dispositivos con diferentes geometrías ha demostrado que dichos efectos son menos notables en aquellos transistores con mayor longitud de puerta o mayor distancia entre puerta y drenador. Esta dependencia con la geometría se puede explicar considerando que la longitud y densidad de trampas de la puerta virtual son independientes de las dimensiones del dispositivo. Finalmente se puede deducir que para conseguir el diseño óptimo durante la fase de diseño no sólo hay que tener en cuenta la aplicación final sino también la influencia que tiene la geometría en los diferentes aspectos estudiados (funcionamiento a alta temperatura, autocalentamiento, y atrapamiento de carga). ABSTRACT GaN-based high electron mobility transistors have been under extensive research due to the excellent electrical properties of GaN and its related alloys (high carrier concentration, high mobility, and high critical electric field). Although these devices have been recently included in commercial applications, some performance and reliability issues need to be addressed for their expansion in the market. Some of these relevant aspects have been studied during this thesis; for instance, the fabrication of enhancement mode HEMTs, the device performance at high temperature, the self-heating and the charge trapping. Enhancement mode HEMTs have become more attractive mainly because their use leads to a significant reduction of the power consumption during the stand-by state. Moreover, they enable the fabrication of simpler power amplifier circuits and high-power switches because they allow the elimination of negativepolarity voltage supply, reducing significantly the circuit complexity and system cost. In this thesis, different techniques for the fabrication of these devices have been assessed: wet-etching for achieving the gate-recess in InAl(Ga)N/GaN devices and two different fluorine-based treatments (CF4 plasma and F implantation). Regarding the wet-etching, experiments have been carried out in InAl(Ga)N/GaN grown on different substrates: Si, sapphire, and SiC. The total recess of the barrier was achieved after 3 min of etching in devices grown on Si substrate. This suggests that the etch rate can critically depend on the dislocations present in the structure, since the Si exhibits the highest mismatch to GaN. Concerning the fluorine-based treatments, a post-gate thermal annealing was required to recover the damages caused to the structure during the fluorine-treatments. The study of the threshold voltage as a function of this annealing time has revealed that in the case of the plasma-treated devices it become more negative with the time increase. On the contrary, the threshold voltage of implanted HEMTs showed a positive shift when the annealing time was increased, which is attributed to the deep F implantation profile. Plasma-treated HEMTs have exhibited better DC performance at room temperature than the implanted devices. Their study at high temperature has revealed that their performance decreases with temperature. The initial performance measured at room temperature was recovered after the thermal cycle regardless of the fluorine treatment; therefore, the thermal effects were reversible. Thermal issues related to the device performance at different temperature have been addressed. Firstly, AlGaN/GaN HEMTs grown on Si substrate with different cap layers: GaN, in situ SiN, or in situ SiN/GaN, have been assessed from 25 K to 550 K. In situ SiN cap layer has been demonstrated to improve the device performance since HEMTs with this cap layer have exhibited the highest drain current and transconductance values, the lowest on-resistance, as well as the best off-state characteristics. Moreover, the evaluation of thermal stress impact on the device performance has confirmed the robustness of devices with in situ cap. Secondly, the high temperature performance of InAlN/GaN HEMTs with different layouts and geometries have been assessed. The devices under study have exhibited an almost linear reduction of the main DC parameters operating in a temperature range from room temperature to 225°C. This was mainly due to the thermal dependence of the electron mobility, and secondly to the drift velocity decrease with temperature. Moreover, HEMTs with large gate length values have exhibited a great reduction of the device performance. This was attributed to the greater decrease of the drift velocity for low electric fields. Similarly, the increase of the gate-to-drain distance led to a greater reduction of drain current and transconductance values. Therefore, this thermal performance degradation has been found to be dependent on both the gate length and the gate-to-drain distance. It was observed that the very high power density in the active region of these transistors leads to Joule self-heating, resulting in an increase of the device temperature, which can degrade the device performance and reliability. A simple electrical method have been developed during this work to determine the channel temperature. Furthermore, the application of this technique together with the performance of electro-thermal simulations have enabled the evaluation of different aspects related to the self-heating. For instance, the influence of the substrate have been confirmed by the study of devices grown on Si, SiC, and Sapphire. HEMTs grown on SiC substrate have been confirmed to exhibit the lowest self-heating effects thanks to its highest thermal conductivity. In addition to this, the distribution of the generated heat in the channel has been demonstrated to be dependent on the gate-to-drain distance. Besides the substrate and the geometry of the device, the ambient temperature has also been found to be relevant for the self-heating effects, mainly due to the temperature-dependent thermal conductivity of the layers and the substrate. Trapping effects have been evaluated by means of pulsed measurements in AlGaN and InAIN barrier devices. AlGaN barrier HEMTs have exhibited a de crease in drain current and transconductance without measurable threshold voltage change, suggesting the location of the traps in the gate-to-drain access region. On the contrary, InAIN barrier devices have showed a drain current associated with a positive shift of threshold voltage, which indicated that the traps were possibly located under the gate region. Moreover, a significant increase of the ON-resistance as well as a transconductance reduction were observed, revealing the presence of traps on the gate-drain access region. On the other hand, the assessment of devices with different geometries have demonstrated that the trapping effects are more noticeable in devices with either short gate length or the gate-to-drain distance. This can be attributed to the fact that the length and the trap density of the virtual gate are independent on the device geometry. Finally, it can be deduced that besides the final application requirements, the influence of the device geometry on the performance at high temperature, on the self-heating, as well as on the trapping effects need to be taken into account during the device design stage to achieve the optimal layout.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of techniques such as envelope tracking (ET) and envelope elimination and restoration (EER) can improve the efficiency of radio frequency power amplifiers (RFPA). In both cases, high-bandwidth DC/DC converters called envelope amplifiers (EA) are used to modulate the supply voltage of the RFPA. This paper addresses the analysis and design of a modified two-phase Buck converter optimized to operate as EA. The effects of multiphase operation on the tracking capabilities are analyzed. The use of a fourth-order output filter is proposed to increase the attenuation of the harmonics generated by the PWM operation, thus allowing a reduction of the ratio between the switching frequency and the converter bandwidth. The design of the output filter is addressed considering envelope tracking accuracy and distortion caused by the side bands arising from the nonlinear modulation process. Finally, the proposed analysis and design methods are supported by simulation results, as well as demonstrated by experiments obtained using two 100-W, 10-MHz, two-phase Buck EAs capable of accurately tracking a 1.5-MHz bandwidth OFDM signal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Integrated master-oscillator power amplifiers driven under steady-state injection conditions are known to show a complex dynamics resulting in a variety of emission regimes. We present experimental results on the emission characteristics of a 1.5 µm distributed feedback tapered master-oscillator power-amplifier in a wide range of steady-state injection conditions, showing different dynamic behaviors. The study combines the optical and radio-frequency spectra recorded under different levels of injected current into the master oscillator and the power amplifier sections. Under low injection current of the master oscillator the correlation between the optical and radio-frequency spectral maps allows to identify operation regimes in which the device emission arises from either the master oscillator mode or from the compound cavity modes allowed by the residual reflectance of the amplifier front facet. The quasi-periodic occurrence of these emission regimes as a function of the amplifier current is interpreted in terms of a thermally tuned competition between the modes of the master oscillator and the compound cavity modes. Under high injection current of the masteroscillator, two different regimes alternate quasi-periodically as a function of the injected current in the power amplifier: a stable regime with a single mode emission at the master oscillator frequency, and an unstable and complex self-pulsating regime showing strong peaks in the radio-frequency spectra as well as multiple frequencies in the optical spectra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo da las nuevas tecnologías permite a los ingenieros llevar al límite el funcionamiento de los circuitos integrados (Integrated Circuits, IC). Las nuevas generaciones de procesadores, DSPs o FPGAs son capaces de procesar la información a una alta velocidad, con un alto consumo de energía, o esperar en modo de baja potencia con el mínimo consumo posible. Esta gran variación en el consumo de potencia y el corto tiempo necesario para cambiar de un nivel al otro, afecta a las especificaciones del Módulo de Regulador de Tensión (Voltage Regulated Module, VRM) que alimenta al IC. Además, las características adicionales obligatorias, tales como adaptación del nivel de tensión (Adaptive Voltage Positioning, AVP) y escalado dinámico de la tensión (Dynamic Voltage Scaling, DVS), imponen requisitos opuestas en el diseño de la etapa de potencia del VRM. Para poder soportar las altas variaciones de los escalones de carga, el condensador de filtro de salida del VRM se ha de sobredimensionar, penalizando la densidad de energía y el rendimiento durante la operación de DVS. Por tanto, las actuales tendencias de investigación se centran en mejorar la respuesta dinámica del VRM, mientras se reduce el tamaño del condensador de salida. La reducción del condensador de salida lleva a menor coste y una prolongación de la vida del sistema ya que se podría evitar el uso de condensadores voluminosos, normalmente implementados con condensadores OSCON. Una ventaja adicional es que reduciendo el condensador de salida, el DVS se puede realizar más rápido y con menor estrés de la etapa de potencia, ya que la cantidad de carga necesaria para cambiar la tensión de salida es menor. El comportamiento dinámico del sistema con un control lineal (Control Modo Tensión, VMC, o Control Corriente de Pico, Peak Current Mode Control, PCMC,…) está limitado por la frecuencia de conmutación del convertidor y por el tamaño del filtro de salida. La reducción del condensador de salida se puede lograr incrementando la frecuencia de conmutación, así como incrementando el ancho de banda del sistema, y/o aplicando controles avanzados no-lineales. Usando esos controles, las variables del estado se saturan para conseguir el nuevo régimen permanente en un tiempo mínimo, así como el filtro de salida, más específicamente la pendiente de la corriente de la bobina, define la respuesta de la tensión de salida. Por tanto, reduciendo la inductancia de la bobina de salida, la corriente de bobina llega más rápido al nuevo régimen permanente, por lo que una menor cantidad de carga es tomada del condensador de salida durante el tránsito. El inconveniente de esa propuesta es que el rendimiento del sistema es penalizado debido al incremento de pérdidas de conmutación y las corrientes RMS. Para conseguir tanto la reducción del condensador de salida como el alto rendimiento del sistema, mientras se satisfacen las estrictas especificaciones dinámicas, un convertidor multifase es adoptado como estándar para aplicaciones VRM. Para asegurar el reparto de las corrientes entre fases, el convertidor multifase se suele implementar con control de modo de corriente. Para superar la limitación impuesta por el filtro de salida, la segunda posibilidad para reducir el condensador de salida es aplicar alguna modificación topológica (Topologic modifications) de la etapa básica de potencia para incrementar la pendiente de la corriente de bobina y así reducir la duración de tránsito. Como el transitorio se ha reducido, una menor cantidad de carga es tomada del condensador de salida bajo el mismo escalón de la corriente de salida, con lo cual, el condensador de salida se puede reducir para lograr la misma desviación de la tensión de salida. La tercera posibilidad para reducir el condensador de salida del convertidor es introducir un camino auxiliar de energía (additional energy path, AEP) para compensar el desequilibrio de la carga del condensador de salida reduciendo consecuentemente la duración del transitorio y la desviación de la tensión de salida. De esta manera, durante el régimen permanente, el sistema tiene un alto rendimiento debido a que el convertidor principal con bajo ancho de banda es diseñado para trabajar con una frecuencia de conmutación moderada para conseguir requisitos estáticos. Por otro lado, el comportamiento dinámico durante los transitorios es determinado por el AEP con un alto ancho de banda. El AEP puede ser implementado como un camino resistivo, como regulador lineal (Linear regulator, LR) o como un convertidor conmutado. Las dos primeras implementaciones proveen un mayor ancho de banda, acosta del incremento de pérdidas durante el transitorio. Por otro lado, la implementación del convertidor computado presenta menor ancho de banda, limitado por la frecuencia de conmutación, aunque produce menores pérdidas comparado con las dos anteriores implementaciones. Dependiendo de la aplicación, la implementación y la estrategia de control del sistema, hay una variedad de soluciones propuestas en el Estado del Arte (State-of-the-Art, SoA), teniendo diferentes propiedades donde una solución ofrece más ventajas que las otras, pero también unas desventajas. En general, un sistema con AEP ideal debería tener las siguientes propiedades: 1. El impacto del AEP a las pérdidas del sistema debería ser mínimo. A lo largo de la operación, el AEP genera pérdidas adicionales, con lo cual, en el caso ideal, el AEP debería trabajar por un pequeño intervalo de tiempo, solo durante los tránsitos; la otra opción es tener el AEP constantemente activo pero, por la compensación del rizado de la corriente de bobina, se generan pérdidas innecesarias. 2. El AEP debería ser activado inmediatamente para minimizar la desviación de la tensión de salida. Para conseguir una activación casi instantánea, el sistema puede ser informado por la carga antes del escalón o el sistema puede observar la corriente del condensador de salida, debido a que es la primera variable del estado que actúa a la perturbación de la corriente de salida. De esa manera, el AEP es activado con casi cero error de la tensión de salida, logrando una menor desviación de la tensión de salida. 3. El AEP debería ser desactivado una vez que el nuevo régimen permanente es detectado para evitar los transitorios adicionales de establecimiento. La mayoría de las soluciones de SoA estiman la duración del transitorio, que puede provocar un transitorio adicional si la estimación no se ha hecho correctamente (por ejemplo, si la corriente de bobina del convertidor principal tiene un nivel superior o inferior al necesitado, el regulador lento del convertidor principal tiene que compensar esa diferencia una vez que el AEP es desactivado). Otras soluciones de SoA observan las variables de estado, asegurando que el sistema llegue al nuevo régimen permanente, o pueden ser informadas por la carga. 4. Durante el transitorio, como mínimo un subsistema, o bien el convertidor principal o el AEP, debería operar en el lazo cerrado. Implementando un sistema en el lazo cerrado, preferiblemente el subsistema AEP por su ancho de banda elevado, se incrementa la robustez del sistema a los parásitos. Además, el AEP puede operar con cualquier tipo de corriente de carga. Las soluciones que funcionan en el lazo abierto suelen preformar el control de balance de carga con mínimo tiempo, así reducen la duración del transitorio y tienen un impacto menor a las pérdidas del sistema. Por otro lado, esas soluciones demuestran una alta sensibilidad a las tolerancias y parásitos de los componentes. 5. El AEP debería inyectar la corriente a la salida en una manera controlada, así se reduce el riesgo de unas corrientes elevadas y potencialmente peligrosas y se incrementa la robustez del sistema bajo las perturbaciones de la tensión de entrada. Ese problema suele ser relacionado con los sistemas donde el AEP es implementado como un convertidor auxiliar. El convertidor auxiliar es diseñado para una potencia baja, con lo cual, los dispositivos elegidos son de baja corriente/potencia. Si la corriente no es controlada, bajo un pico de tensión de entrada provocada por otro parte del sistema (por ejemplo, otro convertidor conectado al mismo bus), se puede llegar a un pico en la corriente auxiliar que puede causar la perturbación de tensión de salida e incluso el fallo de los dispositivos del convertidor auxiliar. Sin embargo, cuando la corriente es controlada, usando control del pico de corriente o control con histéresis, la corriente auxiliar tiene el control con prealimentación (feed-forward) de tensión de entrada y la corriente es definida y limitada. Por otro lado, si la solución utiliza el control de balance de carga, el sistema puede actuar de forma deficiente si la tensión de entrada tiene un valor diferente del nominal, provocando que el AEP inyecta/toma más/menos carga que necesitada. 6. Escalabilidad del sistema a convertidores multifase. Como ya ha sido comentado anteriormente, para las aplicaciones VRM por la corriente de carga elevada, el convertidor principal suele ser implementado como multifase para distribuir las perdidas entre las fases y bajar el estrés térmico de los dispositivos. Para asegurar el reparto de las corrientes, normalmente un control de modo corriente es usado. Las soluciones de SoA que usan VMC son limitadas a la implementación con solo una fase. Esta tesis propone un nuevo método de control del flujo de energía por el AEP y el convertidor principal. El concepto propuesto se basa en la inyección controlada de la corriente auxiliar al nodo de salida donde la amplitud de la corriente es n-1 veces mayor que la corriente del condensador de salida con las direcciones apropiadas. De esta manera, el AEP genera un condensador virtual cuya capacidad es n veces mayor que el condensador físico y reduce la impedancia de salida. Como el concepto propuesto reduce la impedancia de salida usando el AEP, el concepto es llamado Output Impedance Correction Circuit (OICC) concept. El concepto se desarrolla para un convertidor tipo reductor síncrono multifase con control modo de corriente CMC (incluyendo e implementación con una fase) y puede operar con la tensión de salida constante o con AVP. Además, el concepto es extendido a un convertidor de una fase con control modo de tensión VMC. Durante la operación, el control de tensión de salida de convertidor principal y control de corriente del subsistema OICC están siempre cerrados, incrementando la robustez a las tolerancias de componentes y a los parásitos del cirquito y permitiendo que el sistema se pueda enfrentar a cualquier tipo de la corriente de carga. Según el método de control propuesto, el sistema se puede encontrar en dos estados: durante el régimen permanente, el sistema se encuentra en el estado Idle y el subsistema OICC esta desactivado. Por otro lado, durante el transitorio, el sistema se encuentra en estado Activo y el subsistema OICC está activado para reducir la impedancia de salida. El cambio entre los estados se hace de forma autónoma: el sistema entra en el estado Activo observando la corriente de condensador de salida y vuelve al estado Idle cunado el nuevo régimen permanente es detectado, observando las variables del estado. La validación del concepto OICC es hecha aplicándolo a un convertidor tipo reductor síncrono con dos fases y de 30W cuyo condensador de salida tiene capacidad de 140μF, mientras el factor de multiplicación n es 15, generando en el estado Activo el condensador virtual de 2.1mF. El subsistema OICC es implementado como un convertidor tipo reductor síncrono con PCMC. Comparando el funcionamiento del convertidor con y sin el OICC, los resultados demuestran que se ha logrado una reducción de la desviación de tensión de salida con factor 12, tanto con funcionamiento básico como con funcionamiento AVP. Además, los resultados son comparados con un prototipo de referencia que tiene la misma etapa de potencia y un condensador de salida físico de 2.1mF. Los resultados demuestran que los dos sistemas tienen el mismo comportamiento dinámico. Más aun, se ha cuantificado el impacto en las pérdidas del sistema operando bajo una corriente de carga pulsante y bajo DVS. Se demuestra que el sistema con OICC mejora el rendimiento del sistema, considerando las pérdidas cuando el sistema trabaja con la carga pulsante y con DVS. Por lo último, el condensador de salida de sistema con OICC es mucho más pequeño que el condensador de salida del convertidor de referencia, con lo cual, por usar el concepto OICC, la densidad de energía se incrementa. En resumen, las contribuciones principales de la tesis son: • El concepto propuesto de Output Impedance Correction Circuit (OICC), • El control a nivel de sistema basado en el método usado para cambiar los estados de operación, • La implementación del subsistema OICC en lazo cerrado conjunto con la implementación del convertidor principal, • La cuantificación de las perdidas dinámicas bajo la carga pulsante y bajo la operación DVS, y • La robustez del sistema bajo la variación del condensador de salida y bajo los escalones de carga consecutiva. ABSTRACT Development of new technologies allows engineers to push the performance of the integrated circuits to its limits. New generations of processors, DSPs or FPGAs are able to process information with high speed and high consumption or to wait in low power mode with minimum possible consumption. This huge variation in power consumption and the short time needed to change from one level to another, affect the specifications of the Voltage Regulated Module (VRM) that supplies the IC. Furthermore, additional mandatory features, such as Adaptive Voltage Positioning (AVP) and Dynamic Voltage Scaling (DVS), impose opposite trends on the design of the VRM power stage. In order to cope with high load-step amplitudes, the output capacitor of the VRM power stage output filter is drastically oversized, penalizing power density and the efficiency during the DVS operation. Therefore, the ongoing research trend is directed to improve the dynamic response of the VRM while reducing the size of the output capacitor. The output capacitor reduction leads to a smaller cost and longer life-time of the system since the big bulk capacitors, usually implemented with OSCON capacitors, may not be needed to achieve the desired dynamic behavior. An additional advantage is that, by reducing the output capacitance, dynamic voltage scaling (DVS) can be performed faster and with smaller stress on the power stage, since the needed amount of charge to change the output voltage is smaller. The dynamic behavior of the system with a linear control (Voltage mode control, VMC, Peak Current Mode Control, PCMC,…) is limited by the converter switching frequency and filter size. The reduction of the output capacitor can be achieved by increasing the switching frequency of the converter, thus increasing the bandwidth of the system, and/or by applying advanced non-linear controls. Applying nonlinear control, the system variables get saturated in order to reach the new steady-state in a minimum time, thus the output filter, more specifically the output inductor current slew-rate, determines the output voltage response. Therefore, by reducing the output inductor value, the inductor current reaches faster the new steady state, so a smaller amount of charge is taken from the output capacitor during the transient. The drawback of this approach is that the system efficiency is penalized due to increased switching losses and RMS currents. In order to achieve both the output capacitor reduction and high system efficiency, while satisfying strict dynamic specifications, a Multiphase converter system is adopted as a standard for VRM applications. In order to ensure the current sharing among the phases, the multiphase converter is usually implemented with current mode control. In order to overcome the limitation imposed by the output filter, the second possibility to reduce the output capacitor is to apply Topologic modifications of the basic power stage topology in order to increase the slew-rate of the inductor current and, therefore, reduce the transient duration. Since the transient is reduced, smaller amount of charge is taken from the output capacitor under the same load current, thus, the output capacitor can be reduced to achieve the same output voltage deviation. The third possibility to reduce the output capacitor of the converter is to introduce an additional energy path (AEP) to compensate the charge unbalance of the output capacitor, consequently reducing the transient time and output voltage deviation. Doing so, during the steady-state operation the system has high efficiency because the main low-bandwidth converter is designed to operate at moderate switching frequency, to meet the static requirements, whereas the dynamic behavior during the transients is determined by the high-bandwidth auxiliary energy path. The auxiliary energy path can be implemented as a resistive path, as a Linear regulator, LR, or as a switching converter. The first two implementations provide higher bandwidth, at the expense of increasing losses during the transient. On the other hand, the switching converter implementation presents lower bandwidth, limited by the auxiliary converter switching frequency, though it produces smaller losses compared to the two previous implementations. Depending on the application, the implementation and the control strategy of the system, there is a variety of proposed solutions in the State-of-the-Art (SoA), having different features where one solution offers some advantages over the others, but also some disadvantages. In general, an ideal additional energy path system should have the following features: 1. The impact on the system losses should be minimal. During its operation, the AEP generates additional losses, thus ideally, the AEP should operate for a short period of time, only when the transient is occurring; the other option is to have the AEP constantly on, but due to the inductor current ripple compensation at the output, unnecessary losses are generated. 2. The AEP should be activated nearly instantaneously to prevent bigger output voltage deviation. To achieve near instantaneous activation, the converter system can be informed by the load prior to the load-step or the system can observe the output capacitor current, which is the first system state variable that reacts on the load current perturbation. In this manner, the AEP is turned on with near zero output voltage error, providing smaller output voltage deviation. 3. The AEP should be deactivated once the new steady state is reached to avoid additional settling transients. Most of the SoA solutions estimate duration of the transient which may cause additional transient if the estimation is not performed correctly (e.g. if the main converter inductor current has higher or lower value than needed, the slow regulator of the main converter needs to compensate the difference after the AEP is deactivated). Other SoA solutions are observing state variables, ensuring that the system reaches the new steady state or they are informed by the load. 4. During the transient, at least one subsystem, either the main converter or the AEP, should be in closed-loop. Implementing a closed loop system, preferably the AEP subsystem, due its higher bandwidth, increases the robustness under system tolerances and circuit parasitic. In addition, the AEP can operate with any type of load. The solutions that operate in open loop usually perform minimum time charge balance control, thus reducing the transient length and minimizing the impact on the losses, however they are very sensitive to tolerances and parasitics. 5. The AEP should inject current at the output in a controlled manner, thus reducing the risk of high and potentially damaging currents and increasing robustness on the input voltage deviation. This issue is mainly related to the systems where AEP is implemented as auxiliary converter. The auxiliary converter is designed for small power and, as such, the MOSFETs are rated for small power/currents. If the current is not controlled, due to the some unpredicted spike in input voltage caused by some other part of the system (e.g. different converter), it may lead to a current spike in auxiliary current which will cause the perturbation of the output voltage and even failure of the switching components of auxiliary converter. In the case when the current is controlled, using peak CMC or Hysteretic Window CMC, the auxiliary converter has inherent feed-forwarding of the input voltage in current control and the current is defined and limited. Furthermore, if the solution employs charge balance control, the system may perform poorly if the input voltage has different value than the nominal, causing that AEP injects/extracts more/less charge than needed. 6. Scalability of the system to multiphase converters. As commented previously, in VRM applications, due to the high load currents, the main converters are implemented as multiphase to redistribute losses among the modules, lowering temperature stress of the components. To ensure the current sharing, usually a Current Mode Control (CMC) is employed. The SoA solutions that are implemented with VMC are limited to a single stage implementation. This thesis proposes a novel control method of the energy flow through the AEP and the main converter system. The proposed concept relays on a controlled injection of the auxiliary current at the output node where the instantaneous current value is n-1 times bigger than the output capacitor current with appropriate directions. Doing so, the AEP creates an equivalent n times bigger virtual capacitor at the output, thus reducing the output impedance. Due to the fact that the proposed concept reduces the output impedance using the AEP, it has been named the Output Impedance Correction Circuit (OICC) concept. The concept is developed for a multiphase CMC synchronous buck converter (including a single phase implementation), operating with a constant output voltage and with AVP feature. Further, it is extended to a single phase VMC synchronous buck converter. During the operation, the main converter voltage loop and the OICC subsystem capacitor current loop is constantly closed, increasing the robustness under system tolerances and circuit parasitic and allowing the system to operate with any load-current shape or pattern. According to the proposed control method, the system operates in two states: during the steady-state the system is in the Idle state and the OICC subsystem is deactivated, while during the load-step transient the system is in the Active state and the OICC subsystem is activated in order to reduce the output impedance. The state changes are performed autonomously: the system enters in the Active state by observing the output capacitor current and it returns back to the Idle state when the steady-state operation is detected by observing the state variables. The validation of the OICC concept has been done by applying it to a 30W two phase synchronous buck converter with 140μF output capacitor and with the multiplication factor n equal to 15, generating during the Active state equivalent output capacitor of 2.1mF. The OICC subsystem is implemented as single phase PCMC synchronous buck converter. Comparing the converter operation with and without the OICC the results demonstrate that the 12 times reduction of the output voltage deviation is achieved, for both basic operation and for the AVP operation. Furthermore, the results have been compared to a reference prototype which has the same power stage and a fiscal output capacitor of 2.1mF. The results show that the two systems have the same dynamic behavior. Moreover, an impact on the system losses under the pulsating load and DVS operation has been quantified and it has been demonstrated that the OICC system has improved the system efficiency, considering the losses when the system operates with the pulsating load and the DVS operation. Lastly, the output capacitor of the OICC system is much smaller than the reference design output capacitor, therefore, by applying the OICC concept the power density can be increased. In summary, the main contributions of the thesis are: • The proposed Output Impedance Correction Circuit (OICC) concept, • The system level control based on the used approach to change the states of operation, • The OICC subsystem closed-loop implementation, together with the main converter implementation, • The dynamic losses under the pulsating load and the DVS operation quantification, and • The system robustness on the capacitor impedance variation and consecutive load-steps.