106 resultados para Electrónica-Aparatos y accesorios-Diseño
Resumo:
La idea inicial de este proyecto surge de la necesidad de desarrollar una herramienta software que ayudase a estudiantes de un curso de iniciación de álgebra lineal a adquirir los conceptos expuestos en el curso mediante la asistencia de cálculos y la representación visual de conceptos e ideas. Algunas de las características o funcionalidades que debería cumplir la herramienta serían: cálculo simbólico, representación simbólica, interfaz gráfico interactivo (point-and-click para realizar operaciones y cálculos, inserción de elementos gráficos mediante drag-and-drop desde una paleta de elementos, representación visual esquemática, representación gráfica 2D y 3D...), persistencia del modelo de datos, etc. Esta fase de un proyecto puede definirse como el – qué –. El siguiente paso o fase del proyecto trata del diseño del proyecto o el – cómo –. Cómo realizar el cálculo numérico, cómo representar símbolos matemáticos en pantalla, cómo crear una paleta de elementos. . . Seguramente existen bibliotecas o APIs de programación para realizar todas estas tareas, sin embargo, su utilización exige al programador tiempo de aprendizaje y el diseño de integración de las diferentes bibliotecas (compatibilidad de versiones, mecanismos de comunicación entre ellas, configuración, etc.). Lo primero puede resolverse fácilmente dedicando tiempo de estudio a la documentación, pero ya implica tiempo. Lo segundo implica además tener que tomar decisiones sobre cómo realizar la integración, no es trivial llegar a dibujar en pantalla, mediante una API de visualización gráfica, una matriz resultado de realizar ciertas operaciones mediante un API de cálculo de álgebra lineal. Existen varias bibliotecas de cálculo de álgebra lineal en las que apoyarse para realizar cálculos. Así pues, es fácil encontrar una biblioteca o API con funciones para realizar operaciones con matrices. Lo que no resulta tan sencillo es encontrar un API que permita definir al programador los mecanismos para representar la matriz en pantalla o para que el usuario introduzca los valores de la matriz. Es en estas últimas tareas en las que el programador se ve obligado a dedicar la mayor parte del tiempo de desarrollo. El resultado de este proyecto supone una gran simplificación de esta segunda fase, la parte del – cómo –, estableciendo una plataforma sobre la que futuros desarrollos puedan basarse para obtener resultados de alta calidad sin tener que preocuparse de las tareas ajenas a la lógica del programa.
Resumo:
Este proyecto tiene por objeto el estudio de la velocidad de detonación (VOD). La VOD es un parámetro característico de los explosivos gracias al cual se pueden conocer muchas propiedades del explosivo, sus funciones, etc. A lo largo del proyecto se explican los diferentes métodos de medición de la VOD, el funcionamiento básico de un aparato de medición llamado Data Trap II, y se analizan los resultados de unos ensayos que se llevaron a cabo en la Marañosa (Instituto Tecnológico) con el explosivo PG2. Para determinar hasta qué punto son fiables los datos obtenidos gracias a los distintos aparatos y métodos de medición, se han calculado los errores entre ensayos. Se concluye que aunque la medida punto a punto es un dato más fiable con un error menor, no permite obtener la información en continuo que resulta de gran valor en la medida en barreno.
Resumo:
Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.
Resumo:
Las organizaciones son sistemas o unidades sociales, compuestas por personas que interactúan entre sí, para lograr objetivos comunes. Uno de sus objetivos es la productividad. La productividad es un constructo multidimensional en la que influyen aspectos tecnológicos, económicos, organizacionales y humanos. Diversos estudios apoyan la influencia de la motivación de las personas, de las habilidades y destrezas de los individuos, de su talento para desempeñar el trabajo, así como también del ambiente de trabajo presente en la organización, en la productividad. Por esta razón, el objetivo general de la investigación, es analizar la influencia entre los factores humanos y la productividad. Se hará énfasis en la persona como factor productivo clave, para responder a las interrogantes de la investigación, referidas a cuáles son las variables humanas que inciden en la productividad, a la posibilidad de plantear un modelo de productividad que considere el impacto del factor humano y la posibilidad de encontrar un método para la medición de la productividad que contemple la percepción del factor humano. Para resolver estas interrogantes, en esta investigación se busca establecer las relaciones entre las variables humanas y la productividad, vistas desde la perspectiva de tres unidades de análisis diferentes: individuo, grupo y organización, para la formulación de un modelo de productividad humana y el diseño de un instrumento para su medida. Una de las principales fuente de investigación para la elección de las variables humanas, la formulación del modelo, y el método de medición de la productividad, fue la revisión de la literatura disponible sobre la productividad y el factor humano en las organizaciones, lo que facilitó el trazado del marco teórico y conceptual. Otra de las fuentes para la selección fue la opinión de expertos y de especialistas directamente involucrados en el sector eléctrico venezolano, lo cual facilitó la obtención de un modelo, cuyas variables reflejasen la realidad del ámbito en estudio. Para aportar una interpretación explicativa del fenómeno, se planteó el modelo de los Factores Humanos vs Productividad (MFHP), el cual se analizó desde la perspectiva del análisis causal y fue conformado por tres variables latentes exógenas denominadas: factores individuales, factores grupales y factores organizacionales, que estaban relacionadas con una variable latente endógena denominada productividad. El MFHP se formuló mediante la metodología de los modelos de ecuaciones estructurales (SEM). Las relaciones inicialmente propuestas entre las variables latentes fueron corroboradas por los ajustes globales del modelo, se constataron las relaciones entre las variables latentes planteadas y sus indicadores asociados, lo que facilitó el enunciado de 26 hipótesis, de las cuales se comprobaron 24. El modelo fue validado mediante la estrategia de modelos rivales, utilizada para comparar varios modelos SEM, y seleccionar el de mejor ajuste, con sustento teórico. La aceptación del modelo se realizó mediante la evaluación conjunta de los índices de bondad de ajuste globales. Asimismo, para la elaboración del instrumento de medida de la productividad (IMPH), se realizó un análisis factorial exploratorio previo a la aplicación del análisis factorial confirmatorio, aplicando SEM. La revisión de los conceptos de productividad, la incidencia del factor humano, y sus métodos de medición, condujeron al planteamiento de métodos subjetivos que incorporaron la percepción de los principales actores del proceso productivo, tanto para la selección de las variables, como para la formulación de un modelo de productividad y el diseño de un instrumento de medición de la productividad. La contribución metodológica de este trabajo de investigación, ha sido el empleo de los SEM para relacionar variables que tienen que ver con el comportamiento humano en la organización y la productividad, lo cual abre nuevas posibilidades a la investigación en este ámbito. Organizations are social systems or units composed of people who interact with each other to achieve common goals. One objective is productivity, which is a multidimensional construct influenced by technological, economic, organizational and human aspects. Several studies support the influence on productivity of personal motivation, of the skills and abilities of individuals, of their talent for the job, as well as of the work environment present in the organization. Therefore, the overall objective of this research is to analyze the influence between human factors and productivity. The emphasis is on the individual as a productive factor which is key in order to answer the research questions concerning the human variables that affect productivity and to address the ability to propose a productivity model that considers the impact of the human factor and the possibility of finding a method for the measurement of productivity that includes the perception of the human factor. To consider these questions, this research seeks to establish the relationships between human and productivity variables, as seen from the perspective of three different units of analysis: the individual, the group and the organization, in order to formulate a model of human productivity and to design an instrument for its measurement. A major source of research for choosing the human variables, model formulation, and method of measuring productivity, was the review of the available literature on productivity and the human factor in organizations which facilitated the design of the theoretical and conceptual framework. Another source for the selection was the opinion of experts and specialists directly involved in the Venezuelan electricity sector which facilitated obtaining a model whose variables reflect the reality of the area under study. To provide an interpretation explaining the phenomenon, the model of the Human Factors vs. Productivity Model (HFPM) was proposed. This model has been analyzed from the perspective of causal analysis and was composed of three latent exogenous variables denominated: individual, group and organizational factors which are related to a latent variable denominated endogenous productivity. The HFPM was formulated using the methodology of Structural Equation Modeling (SEM). The initially proposed relationships between latent variables were confirmed by the global fits of the model, the relationships between the latent variables and their associated indicators enable the statement of 26 hypotheses, of which 24 were confirmed. The model was validated using the strategy of rival models, used for comparing various SEM models and to select the one that provides the best fit, with theoretical support. The acceptance of the model was performed through the joint evaluation of the adequacy of global fit indices. Additionally, for the development of an instrument to measure productivity, an exploratory factor analysis was performed prior to the application of a confirmatory factor analysis, using SEM. The review of the concepts of productivity, the impact of the human factor, and the measurement methods led to a subjective methods approach that incorporated the perception of the main actors of the production process, both for the selection of variables and for the formulation of a productivity model and the design of an instrument to measure productivity. The methodological contribution of this research has been the use of SEM to relate variables that have to do with human behavior in the organization and with productivity, opening new possibilities for research in this area.
Resumo:
El proyecto se centra en la caracterización, evaluación, diseño de la explotación y tratamiento de un yacimiento de fosfato precámbrico cristalizado. Este se desarrolla a partir de los datos obtenidos de la prospección minera del mismo realizada anteriormente. Esto condujo a la evaluación mediante modelo de bloques y el diseño de explotación por el método de cielo abierto. El diseño de la planta de tratamiento se basó en estudios mineralúrgicos y de recuperación, incluyendo el cálculo del relleno de las cámaras con pasta y el vertido de estériles necesario. Completado con el plan de restauración cierre y abandono de la explotación. ABSTRACT The project focuses on the characterization, evaluation, design of mining operation and processing plant of precambrian phosphate deposit. This is developed from data obtained from the mineral exploration undertaken previously. This led to the evaluation by the block model designing and operating by open pit method. The design of the treatment plant was based on mineralurgy studies and mineral recovery, including the calculation of filled labors with pasta and sterile deposit necessary. Completed with the restoration, close and abandonment plan of the mine.
Resumo:
Los índices de desempeño son importantes herramientas para la planificación de movimientos y el diseño de robots manipuladores. En este trabajo se presenta una colección de algunos de los índices de desempeño que mayor interés han generado en la comunidad dedicada a la robótica. Se presentan índices de desempeño cinetostático, dinámico, de lìmites articulares, e índices definidos sobre el espacio de trabajo. Además, se realiza una revisión sobre las estrategias que se han propuesto para solventar los problemas que aparecen cuando las unidades de los elementos de la matriz Jacobiana no son homogéneas. Al final de este trabajo, proponemos una serie índices de desempeño globales que pueden resultar útiles en el diseño de robots manipuladores.
Resumo:
Este artículo expone la primera aplicación experimental de un método para el análisis y la comparación de experiencias de vivienda social internacional en el contexto de las grandes áreas metropolitanas. El método, desarrollado en la Universidad Politécnica Universidad Politécnica de Madrid (UPM) desde 2009, se basa en la utilización de códigos gráficos y numéricos comunes y la integración de diferentes escalas de aproximación al entorno construido, de la vivienda y su arquitectura, a sus materiales de construcción y llegando más lejos, la ciudad. Además, los datos están vinculados a tres conceptos clave estrechamente relacionados con las condiciones específicas de las grandes áreas metropolitanas: la economía, la densidad y la diversidad. El objetivo final de la investigación es proporcionar una herramienta para la evaluación de la calidad de las viviendas sociales, optimización de recursos y un diseño innovador.
Resumo:
El presente trabajo aborda el estudio del comportamiento dinámico de tableros de puentes pérgola de ferrocarril en líneas de alta velocidad. El rápido aumento de este tipo de vías tanto en España como en Europa, ha propiciado la aparición de un gran número de condicionantes que en muchas ocasiones requieren la adopción de tipologías de puentes no habituales que difieren sensiblemente del puente tipo viga. En este sentido, los puentes pérgola, debido a sus características muy específicas y a su economía, han sido empleados con profusión. El tablero de un puente pérgola es una estructura de marcado carácter bidimensional que las cargas recorren de forma esviada. De dicha forma, resulta una tipología de tablero cuyo comportamiento dista notablemente del comportamiento unidimensional de las estructuras que han servido de base para la elaboración de la normativa actual de acciones de ferrocarril, y de la mayoría de los problemas planteados en la literatura especializada. Dada la escasez documental hallada, se ha planteado un alcance amplio, que trata de sentar las bases sobre las que desarrollar el estudio presente y futuro del tema, tratando de orientar la concepción y el diseño de los tableros de puentes pérgola destinados a líneas de ferrocarril de alta velocidad. Así, el presente trabajo aborda desde el estudio del fundamento teórico-matemático del problema dinámico analizado, hasta el análisis numérico del tablero de un puente pérgola real, pasando por un estudio de la influencia de los principales parámetros del tablero de un puente pérgola en su comportamiento dinámico. Dicho planteamiento ha permitido obtener una serie de conclusiones relevantes acerca del comportamiento dinámico de los tableros de puentes pérgola, que facilitan la labor de encaje y dimensionamiento de las mismas. Asimismo, se ha evaluado la posibilidad de obtener una respuesta dinámica deficiente para sus condiciones de trabajo actuales, realizando una serie de recomendaciones relacionadas con el diseño dinámico de esta tipología de estructuras.
Resumo:
El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.
Resumo:
Esta metodología se ha desarrollado en el marco de un proyecto que es el objeto del Convenio Específico de Colaboración entre el Instituto Geográfico Nacional y la Escuela de Topografía de la Universidad Politécnica de Madrid relativo a la investigación, desarrollo, formación y difusión de conocimientos en el campo de las tecnologías de la información geográfica (TIG) para la investigación y desarrollo de la tecnología y metodología adecuada para la optimización de la información de la Base de Datos de Líneas Límite de la Dirección General del Instituto Geográfico Nacional. El fin fundamental del mismo es desarrollar una metodología para mejorar la precisión de la Base de Datos de Líneas Límite que tiene el Instituto Geográfico Nacional. La exigencia actual de calidad y seguridad en la descripción geométrica de las líneas límite obliga a optimizar dicha descripción mediante la aplicación de nuevas tecnologías no existentes en el momento del levantamiento, y al diseño de metodologías adecuadas que, minimizando los tiempos y costes de ejecución, consideren asimismo los distintos agentes que participan en España en la definición de las líneas límite. Para desarrollar dicha metodología será necesario en primer lugar digitalizar la información de los cuadernos de campo y las actas de deslinde existentes en el Instituto Geográfico Nacional, para que sea un trabajo abordable desde las tecnologías actuales; posteriormente, volcar la información referente a las líneas límite sobre ortofotografías a escala 1:5.000, a partir de los datos de los cuadernos de campo digitalizados. Se propondrá un nuevo sistema de gestión, tratamiento y almacenamiento de las líneas límite, con información sobre su linaje (origen de datos, precisión), así como el formato de salida de las propias líneas límite. Para controlar la calidad de la metodología propuesta, se deberá validar la misma mediante un estudio teórico de lamedida de rendimientos y precisiones y su verificación mediante toma de datos en campo. Particularmente, se llevará a cabo dicha validación en un conjunto de 140 líneas límite de 36 municipios de la provincia de Ávila y Segovia (los comprendidos en las hojas 556 y 457 del Mapa Topográfico Nacional 1:50.000). Una vez contrastada la metodología y efectuados los oportunos procesos de refinamiento, se redactarán las conclusiones de todo el proyecto, que englobarán las recomendaciones de trabajo y las precisiones resultantes, los rendimientos de los diferentes procesos y los costes que se generen mediante el empleo de la nueva metodología. ABSTARCT: This paper introduces the development of a methodology for the optimisation of the municipal boundaries database of the Instituto Geográfico Nacional. This project has arisen as part of a collaboration agreement between the Instituto Geográfico Nacional and the Escuela de Topografía of the Universidad Politécnica de Madrid which seeks to promote research, development and training in Geographic Information Technologies. Current quality requirements demand the use of new technologies to improve the accuracy of the geometrical description of municipal boundaries. These technologies didn’t exist when the municipal boundaries were first drawn up. Besides, it is convenient to design an appropriate methodology that minimises both costs and time employed. The two main steps in the process are: first, the conversion of all the available data (fixing boundary minutes and field survey notebooks) into digital format in order to make possible their integration in a CAD system; and second, the display and visual overlay of these digital data over an 1:5000 orthophotography of the study area, to identify the boundary monuments. A new system will be proposed to manage, process and storage municipal boundaries information, including its lineage; an output format for these data will be designed as well. In addition, a quality control will be designed to audit this scheme using Data Analysis and Statistical Inference techniques. Moreover, GPS technology will be used to get some boundary monuments co-ordinates to check the results of the proposed methodology. The complete scheme will be tested in a study area corresponding to Ávila and Segovia provinces comprising 140 boundary segments from 36 municipalities.
Resumo:
Se ha desarrollado un laboratorio virtual para la medida de ciclos indicados en un motor alternativo policombustible de encendido provocado. El laboratorio virtual desarrollado permite por una parte simular y obtener el ciclo indicado de un motor alternativo de cuatro tiempos, pudiendo modificar los parámetros más importantes de operación (régimen de giro, presiones de admisión y escape, temperaturas, etc.) y de diseño (parámetros geométricos del motor). Por otra parte, el laboratorio virtual permite simular el ensayo del motor en banco de pruebas y la medida del ciclo indicado. Los modelos matemáticos necesarios se han escrito en lenguaje Fortran, y estos interaccionan con un interfaz gráfico de usuario (GUI) programado en VEE®. El laboratorio virtual puede implementarse en una plataforma virtual de enseñanza de manera que los alumnos puedan tener acceso al sistema desde cualquier ordenador, en cualquier momento y desde cualquier lugar.
Resumo:
En una línea experimental de manipulación de fruta, diseñada e instalada en el Departamento de Ingeniería Rural de la Universidad Politécnica de Madrid, fue estudiado el diseño correcto de la estructura de las cintas transportadoras y la regulación y eficacia de elementos deceleradores (cepillo y cortina), con el objetivo de reducir el daño infringido a la fruta, utilizando dos frutos electrónicos IS 100 (8.8 cm Ø y 6.2 cm Ø). Los resultados mostraron que las intensidades de impacto registradas por los frutos electrónicos en los puntos de transferencia pueden ser reducidas (hasta un 53%) utilizando elementos deceleradores bien regulados. El tamaño de la fruta a manipular y el diseño del punto de transferencia deben ser analizados para llevar a cabo una correcta regulación del elemento decelerador. Por otro lado, la ubicación de rodillos estructurales bajo cintas transportadoras en los puntos de transferencia debe ser evitada con el fin de reducir la intensidad del impacto recibido por la fruta.
Resumo:
El presente proyecto tiene como objetivo principal el análisis de la viabilidad de estacionamiento de vehículos propulsados por gas natural comprimido (GNC) desde el punto de vista de formación de atmosferas potencialmente explosivas en los garajes subterráneos. Además se ha realizado una breve introducción sobre el GNC explicando el origen, la composición y los diferentes usos que tiene. Se ha realizado la evaluación de riesgos asociados a la utilización de vehículos propulsados por gas natural y estimación de tasas de escape en el circuito de combustible de los vehículos propulsados por GNC. Para ello se ha aplicado la normativa UNE EN 60079-10 traspuesta en España mediante el Real Decreto del 681/2003 sobre la salud y la seguridad de los trabajadores y el Real Decreto 400/1996 sobre aparatos y sistemas de protección para su uso en atmósferas explosivas. Finalmente se han expuesto las medidas de prevención y protección necesarias para prevenir la generación de atmosferas potencialmente explosivas en los garajes subterráneos y se han detallado los procedimientos y las operaciones que han de realizarse. En las conclusiones se han explicado las acciones más importantes que deben emprenderse para mejorar la seguridad de personas e instalaciones en las áreas de riesgo por presencia de atmósferas potencialmente explosivas. ABSTRACT The main objective of this project is to analyze the viability of the parking of vehicles powered by compressed natural gas (CNG) in the underground garages from the point of view of generated of potentially explosive atmospheres in garages. A brief introduction about the CNG explaining the origin, composition and the different uses that it has is also included. An assessment of the risks associated with the use of vehicles powered by natural gas has been provided as well as an estimate of the exhaust rates on the gas circuit of CNG vehicles. In order to do that, the standard UNE EN 60079-10 transposed in Spain by the Royal Decree 681/2003 about the health and safety of workers and the Royal Decree 400/1996 about equipment and protection systems to be used in explosive atmospheres have been applied. Finally, the necessary preventive and protective measures to prevent the generation of potentially explosive atmospheres in underground garages have been presented and the procedures and operations to be performed have been detailed. In the conclusions, the most important actions to be taken in order to improve the safety of people and facilities in the areas at risk of having potentially explosive atmospheres have been described.
Resumo:
Esta tesis examina las implicaciones técnicas, políticas y espaciales del aire urbano, y en concreto, de la calidad del aire, para tenerlo en cuenta desde una perspectiva arquitectónica. En oposición a formas de entender el aire como un vacío o como una metáfora, este proyecto propone abordarlo desde un acercamiento material y tecnológico, trayendo el entorno al primer plano y reconociendo sus múltiples agencias. Debido a la escasa bibliografía detectada en el campo de la arquitectura, el objetivo es construir un marco teórico-analítico para considerar el aire urbano. Para ello el trabajo construye Aeropolis, una metáfora heurística que describe el ensamblaje sociotecnico de la ciudad. Situada en la intersección de determinadas ramas de la filosofía de la cultura, los estudios sobre ciencia y tecnología y estudios feministas de la ciencia este nuevo paisaje conceptual ofrece una metodología y herramientas para abordar el objeto de estudio desde distintos ángulos. Estas herramientas metodológicas han sido desarrolladas en el contexto específico de Madrid, ciudad muy contaminada cuyo aire ha sido objeto de controversias políticas y sociales, y donde las políticas y tecnologías para reducir sus niveles no han sido exitosas. Para encontrar una implicación alternativa con el aire esta tesis propone un método de investigación de agentes invisibles a partir del análisis de sus dispositivos epistémicos. Se centra, en concreto, en los instrumentos que miden, visualizan y comunican la calidad del aire, proponiendo que no sólo lo representan, sino que son también instrumentos que diseñan el aire y la ciudad. La noción de “sensing” (en castellano medir y sentir) es expandida, reconociendo distintas prácticas que reconstruyen el aire de Madrid. El resultado de esta estrategia no es sólo la ampliación de los espacios desde los que relacionarnos con el aire, sino también la legitimación de prácticas existentes fuera de contextos científicos y administrativos, como por ejemplo prácticas relacionadas con el cuerpo, así como la redistribución de agencias entre más actores. Así, esta tesis trata sobre toxicidad, la Unión Europea, producción colaborativa, modelos de computación, dolores de cabeza, kits DIY, gases, cuerpos humanos, salas de control, sangre o políticos, entre otros. Los dispositivos que sirven de datos empíricos sirven como un ejemplo excepcional para investigar infraestructuras digitales, permitiendo desafiar nociones sobre Ciudades Inteligentes. La tesis pone especial atención en los efectos del aire en el espacio público, reconociendo los procesos de invisibilización que han sufrido sus infraestructuras de monitorización. Para terminar se exponen líneas de trabajo y oportunidades para la arquitectura y el diseño urbano a través de nuevas relaciones entre infraestructuras urbanas, el medio construido, espacios domésticos y públicos y humanos y no humanos, para crear nuevas ecologías políticas urbanas (queer). ABSTRACT This thesis examines the technical, political and spatial implications of urban air, and more specifically "air quality", in order to consider it from an architectural perspective. In opposition to understandings of the air either as a void or as a metaphor, this project proposes to inspect it from a material and technical approach, bringing the background to the fore and acknowledging its multiple agencies. Due to the scarce bibliography within the architectural field, its first aim is to construct a theoretical and analytical framework from which to consider urban air. For this purpose, the work attempts the construction of Aeropolis, a heuristic metaphor that describes the city's aero socio-material assemblage. Located at the intersection of certain currents in cultural philosophy, science and technology studies as well as feminist studies in technoscience, this framework enables a methodology and toolset to be extracted in order to approach the subject matter from different angles. The methodological tools stemming from this purpose-built framework were put to the test in a specific case study: Madrid, a highly polluted city whose air has been subject to political and social controversies, and where no effective policies or technologies have been successful in reducing its levels of pollution. In order to engage with the air, the thesis suggests a method for researching invisible agents by examining the epistemic devices involved. It locates and focuses on the instruments that sense, visualise and communicate urban air, claiming that they do not only represent it, but are also instruments that design the air and the city. The notion of "sensing" is then expanded by recognising different practices which enact the air in Madrid. The work claims that the result of this is not only the opening up of spaces for engagement but also the legitimisation of existing practices outside science and policymaking environments, such as embodied practices, as well as the redistribution of agency among more actors. So this is a thesis about toxicity, the European Union, collaborative production, scientific computational models, headaches, DIY kits, gases, human bodies, control rooms, blood, or politicians, among many others. The devices found throughout the work serve as an exceptional substrate for an investigation of digital infrastructures, enabling to challenge Smart City tropes. There is special attention paid to the effects of the air on the public space, acknowledging the silencing processes these infrastructures have been subjected to. Finally there is an outline of the opportunities arising for architecture and urban design when taking the air into account, to create new (queer) urban political ecologies between the air, urban infrastructures, the built environment, public and domestic spaces, and humans and more than humans.
Resumo:
Durante los últimos años la tendencia en el sector de las telecomunicaciones ha sido un aumento y diversificación en la transmisión de voz, video y fundamentalmente de datos. Para conseguir alcanzar las tasas de transmisión requeridas, los nuevos estándares de comunicaciones requieren un mayor ancho de banda y tienen un mayor factor de pico, lo cual influye en el bajo rendimiento del amplificador de radiofrecuencia (RFPA). Otro factor que ha influido en el bajo rendimiento es el diseño del amplificador de radiofrecuencia. Tradicionalmente se han utilizado amplificadores lineales por su buen funcionamiento. Sin embargo, debido al elevado factor de pico de las señales transmitidas, el rendimiento de este tipo de amplificadores es bajo. El bajo rendimiento del sistema conlleva desventajas adicionales como el aumento del coste y del tamaño del sistema de refrigeración, como en el caso de una estación base, o como la reducción del tiempo de uso y un mayor calentamiento del equipo para sistemas portátiles alimentados con baterías. Debido a estos factores, se han desarrollado durante las últimas décadas varias soluciones para aumentar el rendimiento del RFPA como la técnica de Outphasing, combinadores de potencia o la técnica de Doherty. Estas soluciones mejoran las prestaciones del RFPA y en algún caso han sido ampliamente utilizados comercialmente como la técnica de Doherty, que alcanza rendimientos hasta del 50% para el sistema completo para anchos de banda de hasta 20MHz. Pese a las mejoras obtenidas con estas soluciones, los mayores rendimientos del sistema se obtienen para soluciones basadas en la modulación de la tensión de alimentación del amplificador de potencia como “Envelope Tracking” o “EER”. La técnica de seguimiento de envolvente o “Envelope Tracking” está basada en la modulación de la tensión de alimentación de un amplificador lineal de potencia para obtener una mejora en el rendimiento en el sistema comparado a una solución con una tensión de alimentación constante. Para la implementación de esta técnica se necesita una etapa adicional, el amplificador de envolvente, que añade complejidad al amplificador de radiofrecuencia. En un amplificador diseñado con esta técnica, se aumentan las pérdidas debido a la etapa adicional que supone el amplificador de envolvente pero a su vez disminuyen las pérdidas en el amplificador de potencia. Si el diseño se optimiza adecuadamente, puede conseguirse un aumento global en el rendimiento del sistema superior al conseguido con las técnicas mencionadas anteriormente. Esta técnica presenta ventajas en el diseño del amplificador de envolvente, ya que el ancho de banda requerido puede ser menor que el ancho de banda de la señal de envolvente si se optimiza adecuadamente el diseño. Adicionalmente, debido a que la sincronización entre la señal de envolvente y de fase no tiene que ser perfecta, el proceso de integración conlleva ciertas ventajas respecto a otras técnicas como EER. La técnica de eliminación y restauración de envolvente, llamada EER o técnica de Kahn está basada en modulación simultánea de la envolvente y la fase de la señal usando un amplificador de potencia conmutado, no lineal y que permite obtener un elevado rendimiento. Esta solución fue propuesta en el año 1952, pero no ha sido implementada con éxito durante muchos años debido a los exigentes requerimientos en cuanto a la sincronización entre fase y envolvente, a las técnicas de control y de corrección de los errores y no linealidades de cada una de las etapas así como de los equipos para poder implementar estas técnicas, que tienen unos requerimientos exigentes en capacidad de cálculo y procesamiento. Dentro del diseño de un RFPA, el amplificador de envolvente tiene una gran importancia debido a su influencia en el rendimiento y ancho de banda del sistema completo. Adicionalmente, la linealidad y la calidad de la señal de transmitida deben ser elevados para poder cumplir con los diferentes estándares de telecomunicaciones. Esta tesis se centra en el amplificador de envolvente y el objetivo principal es el desarrollo de soluciones que permitan el aumento del rendimiento total del sistema a la vez que satisfagan los requerimientos de ancho de banda, calidad de la señal transmitida y de linealidad. Debido al elevado rendimiento que potencialmente puede alcanzarse con la técnica de EER, esta técnica ha sido objeto de análisis y en el estado del arte pueden encontrarse numerosas referencias que analizan el diseño y proponen diversas implementaciones. En una clasificación de alto nivel, podemos agrupar las soluciones propuestas del amplificador de envolvente según estén compuestas de una o múltiples etapas. Las soluciones para el amplificador de envolvente en una configuración multietapa se basan en la combinación de un convertidor conmutado, de elevado rendimiento con un regulador lineal, de alto ancho de banda, en una combinación serie o paralelo. Estas soluciones, debido a la combinación de las características de ambas etapas, proporcionan un buen compromiso entre rendimiento y buen funcionamiento del amplificador de RF. Por otro lado, la complejidad del sistema aumenta debido al mayor número de componentes y de señales de control necesarias y el aumento de rendimiento que se consigue con estas soluciones es limitado. Una configuración en una etapa tiene las ventajas de una mayor simplicidad, pero debido al elevado ancho de banda necesario, la frecuencia de conmutación debe aumentarse en gran medida. Esto implicará un bajo rendimiento y un peor funcionamiento del amplificador de envolvente. En el estado del arte pueden encontrarse diversas soluciones para un amplificador de envolvente en una etapa, como aumentar la frecuencia de conmutación y realizar la implementación en un circuito integrado, que tendrá mejor funcionamiento a altas frecuencias o utilizar técnicas topológicas y/o filtros de orden elevado, que permiten una reducción de la frecuencia de conmutación. En esta tesis se propone de manera original el uso de la técnica de cancelación de rizado, aplicado al convertidor reductor síncrono, para reducir la frecuencia de conmutación comparado con diseño equivalente del convertidor reductor convencional. Adicionalmente se han desarrollado dos variantes topológicas basadas en esta solución para aumentar la robustez y las prestaciones de la misma. Otro punto de interés en el diseño de un RFPA es la dificultad de poder estimar la influencia de los parámetros de diseño del amplificador de envolvente en el amplificador final integrado. En esta tesis se ha abordado este problema y se ha desarrollado una herramienta de diseño que permite obtener las principales figuras de mérito del amplificador integrado para la técnica de EER a partir del diseño del amplificador de envolvente. Mediante el uso de esta herramienta pueden validarse el efecto del ancho de banda, el rizado de tensión de salida o las no linealidades del diseño del amplificador de envolvente para varias modulaciones digitales. Las principales contribuciones originales de esta tesis son las siguientes: La aplicación de la técnica de cancelación de rizado a un convertidor reductor síncrono para un amplificador de envolvente de alto rendimiento para un RFPA linealizado mediante la técnica de EER. Una reducción del 66% en la frecuencia de conmutación, comparado con el reductor convencional equivalente. Esta reducción se ha validado experimentalmente obteniéndose una mejora en el rendimiento de entre el 12.4% y el 16% para las especificaciones de este trabajo. La topología y el diseño del convertidor reductor con dos redes de cancelación de rizado en cascada para mejorar el funcionamiento y robustez de la solución con una red de cancelación. La combinación de un convertidor redactor multifase con la técnica de cancelación de rizado para obtener una topología que proporciona una reducción del cociente entre frecuencia de conmutación y ancho de banda de la señal. El proceso de optimización del control del amplificador de envolvente en lazo cerrado para mejorar el funcionamiento respecto a la solución en lazo abierto del convertidor reductor con red de cancelación de rizado. Una herramienta de simulación para optimizar el proceso de diseño del amplificador de envolvente mediante la estimación de las figuras de mérito del RFPA, implementado mediante EER, basada en el diseño del amplificador de envolvente. La integración y caracterización del amplificador de envolvente basado en un convertidor reductor con red de cancelación de rizado en el transmisor de radiofrecuencia completo consiguiendo un elevado rendimiento, entre 57% y 70.6% para potencias de salida de 14.4W y 40.7W respectivamente. Esta tesis se divide en seis capítulos. El primer capítulo aborda la introducción enfocada en la aplicación, los amplificadores de potencia de radiofrecuencia, así como los principales problemas, retos y soluciones existentes. En el capítulo dos se desarrolla el estado del arte de amplificadores de potencia de RF, describiéndose las principales técnicas de diseño, las causas de no linealidad y las técnicas de optimización. El capítulo tres está centrado en las soluciones propuestas para el amplificador de envolvente. El modo de control se ha abordado en este capítulo y se ha presentado una optimización del diseño en lazo cerrado para el convertidor reductor convencional y para el convertidor reductor con red de cancelación de rizado. El capítulo cuatro se centra en el proceso de diseño del amplificador de envolvente. Se ha desarrollado una herramienta de diseño para evaluar la influencia del amplificador de envolvente en las figuras de mérito del RFPA. En el capítulo cinco se presenta el proceso de integración realizado y las pruebas realizadas para las diversas modulaciones, así como la completa caracterización y análisis del amplificador de RF. El capítulo seis describe las principales conclusiones de la tesis y las líneas futuras. ABSTRACT The trend in the telecommunications sector during the last years follow a high increase in the transmission rate of voice, video and mainly in data. To achieve the required levels of data rates, the new modulation standards demand higher bandwidths and have a higher peak to average power ratio (PAPR). These specifications have a direct impact in the low efficiency of the RFPA. An additional factor for the low efficiency of the RFPA is in the power amplifier design. Traditionally, linear classes have been used for the implementation of the power amplifier as they comply with the technical requirements. However, they have a low efficiency, especially in the operating range of signals with a high PAPR. The low efficiency of the transmitter has additional disadvantages as an increase in the cost and size as the cooling system needs to be increased for a base station and a temperature increase and a lower use time for portable devices. Several solutions have been proposed in the state of the art to improve the efficiency of the transmitter as Outphasing, power combiners or Doherty technique. However, the highest potential of efficiency improvement can be obtained using a modulated power supply for the power amplifier, as in the Envelope Tracking and EER techniques. The Envelope Tracking technique is based on the modulation of the power supply of a linear power amplifier to improve the overall efficiency compared to a fixed voltage supply. In the implementation of this technique an additional stage is needed, the envelope amplifier, that will increase the complexity of the RFPA. However, the efficiency of the linear power amplifier will increase and, if designed properly, the RFPA efficiency will be improved. The advantages of this technique are that the envelope amplifier design does not require such a high bandwidth as the envelope signal and that in the integration process a perfect synchronization between envelope and phase is not required. The Envelope Elimination and Restoration (EER) technique, known also as Kahn’s technique, is based on the simultaneous modulation of envelope and phase using a high efficiency switched power amplifier. This solution has the highest potential in terms of the efficiency improvement but also has the most challenging specifications. This solution, proposed in 1952, has not been successfully implemented until the last two decades due to the high demanding requirements for each of the stages as well as for the highly demanding processing and computation capabilities needed. At the system level, a very precise synchronization is required between the envelope and phase paths to avoid a linearity decrease of the system. Several techniques are used to compensate the non-linear effects in amplitude and phase and to improve the rejection of the out of band noise as predistortion, feedback and feed-forward. In order to obtain a high bandwidth and efficient RFPA using either ET or EER, the envelope amplifier stage will have a critical importance. The requirements for this stage are very demanding in terms of bandwidth, linearity and quality of the transmitted signal. Additionally the efficiency should be as high as possible, as the envelope amplifier has a direct impact in the efficiency of the overall system. This thesis is focused on the envelope amplifier stage and the main objective will be the development of high efficiency envelope amplifier solutions that comply with the requirements of the RFPA application. The design and optimization of an envelope amplifier for a RFPA application is a highly referenced research topic, and many solutions that address the envelope amplifier and the RFPA design and optimization can be found in the state of the art. From a high level classification, multiple and single stage envelope amplifiers can be identified. Envelope amplifiers for EER based on multiple stage architecture combine a linear assisted stage and a switched-mode stage, either in a series or parallel configuration, to achieve a very high performance RFPA. However, the complexity of the system increases and the efficiency improvement is limited. A single-stage envelope amplifier has the advantage of a lower complexity but in order to achieve the required bandwidth the switching frequency has to be highly increased, and therefore the performance and the efficiency are degraded. Several techniques are used to overcome this limitation, as the design of integrated circuits that are capable of switching at very high rates or the use of topological solutions, high order filters or a combination of both to reduce the switching frequency requirements. In this thesis it is originally proposed the use of the ripple cancellation technique, applied to a synchronous buck converter, to reduce the switching frequency requirements compared to a conventional buck converter for an envelope amplifier application. Three original proposals for the envelope amplifier stage, based on the ripple cancellation technique, are presented and one of the solutions has been experimentally validated and integrated in the complete amplifier, showing a high total efficiency increase compared to other solutions of the state of the art. Additionally, the proposed envelope amplifier has been integrated in the complete RFPA achieving a high total efficiency. The design process optimization has also been analyzed in this thesis. Due to the different figures of merit between the envelope amplifier and the complete RFPA it is very difficult to obtain an optimized design for the envelope amplifier. To reduce the design uncertainties, a design tool has been developed to provide an estimation of the RFPA figures of merit based on the design of the envelope amplifier. The main contributions of this thesis are: The application of the ripple cancellation technique to a synchronous buck converter for an envelope amplifier application to achieve a high efficiency and high bandwidth EER RFPA. A 66% reduction of the switching frequency, validated experimentally, compared to the equivalent conventional buck converter. This reduction has been reflected in an improvement in the efficiency between 12.4% and 16%, validated for the specifications of this work. The synchronous buck converter with two cascaded ripple cancellation networks (RCNs) topology and design to improve the robustness and the performance of the envelope amplifier. The combination of a phase-shifted multi-phase buck converter with the ripple cancellation technique to improve the envelope amplifier switching frequency to signal bandwidth ratio. The optimization of the control loop of an envelope amplifier to improve the performance of the open loop design for the conventional and ripple cancellation buck converter. A simulation tool to optimize the envelope amplifier design process. Using the envelope amplifier design as the input data, the main figures of merit of the complete RFPA for an EER application are obtained for several digital modulations. The successful integration of the envelope amplifier based on a RCN buck converter in the complete RFPA obtaining a high efficiency integrated amplifier. The efficiency obtained is between 57% and 70.6% for an output power of 14.4W and 40.7W respectively. The main figures of merit for the different modulations have been characterized and analyzed. This thesis is organized in six chapters. In Chapter 1 is provided an introduction of the RFPA application, where the main problems, challenges and solutions are described. In Chapter 2 the technical background for radiofrequency power amplifiers (RF) is presented. The main techniques to implement an RFPA are described and analyzed. The state of the art techniques to improve performance of the RFPA are identified as well as the main sources of no-linearities for the RFPA. Chapter 3 is focused on the envelope amplifier stage. The three different solutions proposed originally in this thesis for the envelope amplifier are presented and analyzed. The control stage design is analyzed and an optimization is proposed both for the conventional and the RCN buck converter. Chapter 4 is focused in the design and optimization process of the envelope amplifier and a design tool to evaluate the envelope amplifier design impact in the RFPA is presented. Chapter 5 shows the integration process of the complete amplifier. Chapter 6 addresses the main conclusions of the thesis and the future work.