991 resultados para Industrial automation techniques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El interés por los sistemas fotovoltaicos de concentración (CPV) ha resurgido en los últimos años amparado por el desarrollo de células multiunión de muy alta eficiencia basadas en semiconductores de los grupos III-V. Estas células han permitido obtener módulos de concentración con eficiencias que prácticamente duplican las del panel plano y que llegan al 35% en los módulos récord. Esta tesis está dedicada al diseño y la implementación experimental de nuevos conceptos que permitan obtener módulos CPV que no sólo alcancen una eficiencia alta en condiciones estándar sino que, además, sean lo suficientemente tolerantes a errores de montaje, seguimiento, temperatura y variaciones espectrales para que la energía que producen a lo largo del año sea máxima. Una de las primeras cuestiones que se abordan es el diseño de elementos ópticos secundarios para sistemas cuyo primario es una lente de Fresnel y que permiten, para una concentración fija, aumentar el ángulo de aceptancia y la tolerancia del sistema. Varios secundarios reflexivos y refractivos han sido diseñados y analizados mediante trazado de rayos. En particular, utilizando óptica anidólica y basándose en el diseño de una sola etapa conocido como ‘concentrador dieléctrico que funciona por reflexión total interna‘, se ha diseñado, fabricado y caracterizado un secundario con salida cuadrada que, usado junto con una lente de Fresnel, permite alcanzar simultáneamente una elevada eficiencia, concentración y aceptancia. Además, se ha propuesto y prototipado un método alternativo de fabricación para otro de los secundarios, denominado domo, consistente en el sobremoldeo de silicona sobre células solares. Una de las características que impregna todo el trabajo realizado en esta tesis es la aproximación holística en el diseño de módulos CPV, es decir, se ha prestado especial atención al diseño conjunto de la célula y la óptica para garantizar que el sistema total alcance la mayor eficiencia posible. En este sentido muchos sistemas ópticos desarrollados en esta tesis han sido diseñados, caracterizados y optimizados teniendo en cuenta que el ajuste de corriente entre las distintas subcélulas que comprenden la célula multiunión bajo el concentrador sea muy próximo a uno. La capa antirreflectante sobre la célula funciona, en cierto modo, como interfaz entre la óptica y la célula, por lo que se ha diseñado un método de optimización de capas antirreflectantes que considera no sólo el amplio rango de longitudes de onda para el que las células multiunión son sensibles sino también la distribución angular de intensidad sobre la célula creada por la óptica de concentración. Además, la cuestión de la falta de uniformidad también se ha abordado mediante la comparación de las distribuciones espectrales y espaciales de irradiancia que crean diferentes ópticas (simuladas mediante trazado de rayos y fotografiadas) y las pérdidas de eficiencia que experimentan las células iluminadas por dichas ópticas de concentración medidas experimentalmente. El efecto de la temperatura en la óptica de concentración también ha sido objeto de estudio de esta tesis. En particular, mediante simulaciones de elementos finitos se han dado los primeros pasos para el análisis de las deformaciones que sufren los dientes de las lentes de Fresnel híbridas (vidrio-silicona), así como el cambio de índice de refracción con la temperatura y la influencia de ambos efectos sobre el funcionamiento de los sistemas. Se ha implementado un modelo que tiene por objeto considerar las variaciones ambientales, principalmente temperatura y contenido espectral de la radiación directa, así como las sensibilidades térmica y espectral de los sistemas CPV, con el fin de maximizar la energía producida por un módulo de concentración a lo largo de un año en un emplazamiento determinado. Los capítulos 5 y 6 de este libro están dedicados al diseño, fabricación y caracterización de un nuevo concepto de módulo fotovoltaico denominado FluidReflex y basado en una única etapa reflexiva con dieléctrico fluido. En este nuevo concepto la presencia del fluido aporta algunas ventajas significativas como son: un aumento del producto concentración por aceptancia (CAP, en sus siglas en inglés) alcanzable al rodear la célula con un medio cuyo índice de refracción es mayor que uno, una mejora de la eficiencia óptica al disminuir las pérdidas por reflexión de Fresnel en varias interfaces, una mejora de la disipación térmica ya que el calor que se concentra junto a la célula se trasmite por convección natural y conducción en el fluido y un aislamiento eléctrico mejorado. Mediante la construcción y medida de varios prototipos de unidad elemental se ha demostrado que no existe ninguna razón fundamental que impida la implementación práctica del concepto teórico alcanzando una elevada eficiencia. Se ha realizado un análisis de fluidos candidatos probando la existencia de al menos dos de ellos que cumplen todos los requisitos (en particular el de estabilidad bajo condiciones de luz concentrada) para formar parte del sistema de concentración FluidReflex. Por ´ultimo, se han diseñado, fabricado y caracterizado varios prototipos preindustriales de módulos FluidReflex para lo cual ha sido necesario optimizar el proceso de fabricación de la óptica multicavidad a fin de mantener el buen comportamiento óptico obtenido en la fabricación de la unidad elemental. Los distintos prototipos han sido medidos, tanto en el laboratorio como bajo el sol real, analizando el ajuste de corriente de la célula iluminada por el concentrador FluidReflex bajo diferentes distribuciones espectrales de la radiación incidente así como el excelente comportamiento térmico del módulo. ABSTRACT A renewed interest in concentrating photovoltaic (CPV) systems has emerged in recent years encouraged by the development of high-efficiency multijunction solar cells based in IIIV semiconductors that have led to CPV module efficiencies which practically double that of flat panel PV and which reach 35% for record modules. This thesis is devoted to the design and experimental implementation of new concepts for obtaining CPV modules that not only achieve high efficiency under standard conditions but also have such a wide tolerance to assembly errors, tracking, temperature and spectral variations, that the energy generated by them throughout the year is maximized. One of the first addressed issues is the design of secondary optical elements whose primary optics is a Fresnel lens and which, for a fixed concentration, allow an increased acceptance angle and tolerance of the system. Several reflective and refractive secondaries have been designed and analyzed using ray tracing. In particular, using nonimaging optics and based on the single-stage design known as ‘dielectric totally internally reflecting concentrator’, a secondary with square output has been designed, fabricated and characterized. Used together with a Fresnel lens, the secondary can simultaneously achieve high efficiency, concentration and acceptance. Furthermore, an alternative method has been proposed and prototyped for the fabrication of the secondary named dome. The optics is manufactured by direct overmolding of silicone over the solar cells. One characteristic that permeates all the work done in this thesis is the holistic approach in the design of CPV modules, meaning that special attention has been paid to the joint design of the solar cell and the optics to ensure that the total system achieves the highest attainable efficiency. In this regard, many optical systems developed in the thesis have been designed, characterized and optimized considering that the current matching among the subcells within the multijunction solar cell beneath the optics must be close to one. Antireflective coating over the cell acts, somehow, as an interface between the optics and the cell. Consequently, a method has been designed to optimize antireflective coatings that takes into account not only the broad wavelength range that multijunction solar cells are sensitive to but also the angular intensity distribution created by the concentrating optics. In addition, the issue of non-uniformity has also been addressed by comparing the spectral and spatial distributions of irradiance created by different optics (simulated by ray tracing and photographed) and the efficiency losses experienced by cells illuminated by those concentrating optics experimentally determined. The effect of temperature on the concentrating optics has also been studied in this thesis. In particular, finite element simulations have been use to analyze the deformations experienced by the facets of hybrid (silicon-glass) Fresnel lenses, the change of refractive index with temperature and the influence of both effects on the system performance. A model has been implemented which take into consideration atmospheric variations, mainly temperature and spectral content of the direct normal irradiance, as well as thermal and spectral sensitivities of systems, with the aim of maximizing the energy harvested by a CPV module throughout the year in a particular location. Chapters 5 and 6 of this book are devoted to the design, fabrication, and characterization of a new concentrator concept named FluidReflex and based on a single-stage reflective optics with fluid dielectric. In this new concept, the presence of the fluid provides some significant advantages such as: an increased concentration acceptance angle product (CAP) achievable by surrounding the cell with a medium whose refractive index is greater than one, an improvement of the optical efficiency by reducing losses due to Fresnel reflection at several interfaces, an improvement in heat dissipation as the heat concentrated near the cell is transmitted by natural convection and conduction in the fluid, and an improved electrical insulation. By fabricating and characterizing several elementary-unit prototypes it was shown that there is no fundamental reason that prevents the practical implementation of this theoretical concept reaching high efficiency. Several fluid candidates were investigated proving the existence of at least to fluids that meet all the requirements (including the stability under concentrated light) to become part of the FluidReflex concentrator. Finally, several pre-industrial FluidReflex module prototypes have been designed and fabricated. An optimization process for the manufacturing of the multicavity optics was necessary to attain such an optics quality as the one achieved by the single unit. The module prototypes have been measured, both indoors and outdoors, analyzing the current matching of the solar cells beneath the concentrator for different spectral distribution of the incident irradiance. Additionally, the module showed an excellent thermal performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we analyze the performance of several well-known pattern recognition and dimensionality reduction techniques when applied to mass-spectrometry data for odor biometric identification. Motivated by the successful results of previous works capturing the odor from other parts of the body, this work attempts to evaluate the feasibility of identifying people by the odor emanated from the hands. By formulating this task according to a machine learning scheme, the problem is identified with a small-sample-size supervised classification problem in which the input data is formed by mass spectrograms from the hand odor of 13 subjects captured in different sessions. The high dimensionality of the data makes it necessary to apply feature selection and extraction techniques together with a simple classifier in order to improve the generalization capabilities of the model. Our experimental results achieve recognition rates over 85% which reveals that there exists discriminatory information in the hand odor and points at body odor as a promising biometric identifier.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Independientemente de la existencia de técnicas altamente sofisticadas y capacidades de cómputo cada vez más elevadas, los problemas asociados a los robots que interactúan con entornos no estructurados siguen siendo un desafío abierto en robótica. A pesar de los grandes avances de los sistemas robóticos autónomos, hay algunas situaciones en las que una persona en el bucle sigue siendo necesaria. Ejemplos de esto son, tareas en entornos de fusión nuclear, misiones espaciales, operaciones submarinas y cirugía robótica. Esta necesidad se debe a que las tecnologías actuales no pueden realizar de forma fiable y autónoma cualquier tipo de tarea. Esta tesis presenta métodos para la teleoperación de robots abarcando distintos niveles de abstracción que van desde el control supervisado, en el que un operador da instrucciones de alto nivel en la forma de acciones, hasta el control bilateral, donde los comandos toman la forma de señales de control de bajo nivel. En primer lugar, se presenta un enfoque para llevar a cabo la teleoperación supervisada de robots humanoides. El objetivo es controlar robots terrestres capaces de ejecutar tareas complejas en entornos de búsqueda y rescate utilizando enlaces de comunicación limitados. Esta propuesta incorpora comportamientos autónomos que el operador puede utilizar para realizar tareas de navegación y manipulación mientras se permite cubrir grandes áreas de entornos remotos diseñados para el acceso de personas. Los resultados experimentales demuestran la eficacia de los métodos propuestos. En segundo lugar, se investiga el uso de dispositivos rentables para telemanipulación guiada. Se presenta una aplicación que involucra un robot humanoide bimanual y un traje de captura de movimiento basado en sensores inerciales. En esta aplicación, se estudian las capacidades de adaptación introducidas por el factor humano y cómo estas pueden compensar la falta de sistemas robóticos de alta precisión. Este trabajo es el resultado de una colaboración entre investigadores del Biorobotics Laboratory de la Universidad de Harvard y el Centro de Automática y Robótica UPM-CSIC. En tercer lugar, se presenta un nuevo controlador háptico que combina velocidad y posición. Este controlador bilateral híbrido hace frente a los problemas relacionados con la teleoperación de un robot esclavo con un gran espacio de trabajo usando un dispositivo háptico pequeño como maestro. Se pueden cubrir amplias áreas de trabajo al cambiar automáticamente entre los modos de control de velocidad y posición. Este controlador háptico es ideal para sistemas maestro-esclavo con cinemáticas diferentes, donde los comandos se transmiten en el espacio de la tarea del entorno remoto. El método es validado para realizar telemanipulación hábil de objetos con un robot industrial. Por último, se introducen dos contribuciones en el campo de la manipulación robótica. Por un lado, se presenta un nuevo algoritmo de cinemática inversa, llamado método iterativo de desacoplamiento cinemático. Este método se ha desarrollado para resolver el problema cinemático inverso de un tipo de robot de seis grados de libertad donde una solución cerrada no está disponible. La eficacia del método se compara con métodos numéricos convencionales. Además, se ha diseñado una taxonomía robusta de agarres que permite controlar diferentes manos robóticas utilizando una correspondencia, basada en gestos, entre los espacios de trabajo de la mano humana y de la mano robótica. El gesto de la mano humana se identifica mediante la lectura de los movimientos relativos del índice, el pulgar y el dedo medio del usuario durante las primeras etapas del agarre. ABSTRACT Regardless of the availability of highly sophisticated techniques and ever increasing computing capabilities, the problems associated with robots interacting with unstructured environments remains an open challenge. Despite great advances in autonomous robotics, there are some situations where a humanin- the-loop is still required, such as, nuclear, space, subsea and robotic surgery operations. This is because the current technologies cannot reliably perform all kinds of task autonomously. This thesis presents methods for robot teleoperation strategies at different levels of abstraction ranging from supervisory control, where the operator gives high-level task actions, to bilateral teleoperation, where the commands take the form of low-level control inputs. These strategies contribute to improve the current human-robot interfaces specially in the case of slave robots deployed at large workspaces. First, an approach to perform supervisory teleoperation of humanoid robots is presented. The goal is to control ground robots capable of executing complex tasks in disaster relief environments under constrained communication links. This proposal incorporates autonomous behaviors that the operator can use to perform navigation and manipulation tasks which allow covering large human engineered areas of the remote environment. The experimental results demonstrate the efficiency of the proposed methods. Second, the use of cost-effective devices for guided telemanipulation is investigated. A case study involving a bimanual humanoid robot and an Inertial Measurement Unit (IMU) Motion Capture (MoCap) suit is introduced. Herein, it is corroborated how the adaptation capabilities offered by the human-in-the-loop factor can compensate for the lack of high-precision robotic systems. This work is the result of collaboration between researchers from the Harvard Biorobotics Laboratory and the Centre for Automation and Robotics UPM-CSIC. Thirdly, a new haptic rate-position controller is presented. This hybrid bilateral controller copes with the problems related to the teleoperation of a slave robot with large workspace using a small haptic device as master. Large workspaces can be covered by automatically switching between rate and position control modes. This haptic controller is ideal to couple kinematic dissimilar master-slave systems where the commands are transmitted in the task space of the remote environment. The method is validated to perform dexterous telemanipulation of objects with a robotic manipulator. Finally, two contributions for robotic manipulation are introduced. First, a new algorithm, the Iterative Kinematic Decoupling method, is presented. It is a numeric method developed to solve the Inverse Kinematics (IK) problem of a type of six-DoF robotic arms where a close-form solution is not available. The effectiveness of this IK method is compared against conventional numerical methods. Second, a robust grasp mapping has been conceived. It allows to control a wide range of different robotic hands using a gesture based correspondence between the human hand space and the robotic hand space. The human hand gesture is identified by reading the relative movements of the index, thumb and middle fingers of the user during the early stages of grasping.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo trata de la aplicación de los códigos detectores y correctores de error al diseño de los Computadores Tolerantes a Fallos, planteando varias estrategias óptimas de detección y corrección para algunos subsistemas. En primer lugar,"se justifica la necesidad de aplicar técnicas de Tolerancia a Fallos. A continuación se hacen previsiones de evolución de la tecnología de Integración, así como una tipificación de los fallos en circuitos Integrados. Partiendo de una recopilación y revisión de la teoría de códigos, se hace un desarrollo teórico cuya aplicación permite obligar a que algunos de estos códigos sean cerrados respecto de las operaciones elementales que se ejecutan en un computador. Se plantean estrategias óptimas de detección y corrección de error para sus subsistemas mas Importantes, culminando en el diseño, realización y prueba de una unidad de memoria y una unidad de proceso de datos con amplias posibilidades de detección y corrección de errores.---ABSTRACT---The present work deals with the application of error detecting and correctíng codes to the désign of Fault Tolerant Computers. Several óptimo» detection and correction strategies are presented to be applied in some subsystems. First of all, the necessity of applying Fault Tolerant techniques is explained. Later, a study on íntegration technology evolution and typification of Integrated circuit faults 1s developed. Based on a compilation and revisión of Coding Theory, a theoretical study is carried out. It allows us to force some of these codes to be closed over elementary operations. Optimum detection and correction techniques are presented for the raost important subsystems. Flnally, the design, building and testing of a memory unit and a processing unit provided with wlde error detection and correction posibilities 1s shown.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestión de los residuos radiactivos de vida larga producidos en los reactores nucleares constituye uno de los principales desafíos de la tecnología nuclear en la actualidad. Una posible opción para su gestión es la transmutación de los nucleidos de vida larga en otros de vida más corta. Los sistemas subcríticos guiados por acelerador (ADS por sus siglas en inglés) son una de las tecnologías en desarrollo para logar este objetivo. Un ADS consiste en un reactor nuclear subcrítico mantenido en un estado estacionario mediante una fuente externa de neutrones guiada por un acelerador de partículas. El interés de estos sistemas radica en su capacidad para ser cargados con combustibles que tengan contenidos de actínidos minoritarios mayores que los reactores críticos convencionales, y de esta manera, incrementar las tasas de trasmutación de estos elementos, que son los principales responsables de la radiotoxicidad a largo plazo de los residuos nucleares. Uno de los puntos clave que han sido identificados para la operación de un ADS a escala industrial es la necesidad de monitorizar continuamente la reactividad del sistema subcrítico durante la operación. Por esta razón, desde los años 1990 se han realizado varios experimentos en conjuntos subcríticos de potencia cero (MUSE, RACE, KUCA, Yalina, GUINEVERE/FREYA) con el fin de validar experimentalmente estas técnicas. En este contexto, la presente tesis se ocupa de la validación de técnicas de monitorización de la reactividad en el conjunto subcrítico Yalina-Booster. Este conjunto pertenece al Joint Institute for Power and Nuclear Research (JIPNR-Sosny) de la Academia Nacional de Ciencias de Bielorrusia. Dentro del proyecto EUROTRANS del 6º Programa Marco de la UE, en el año 2008 se ha realizado una serie de experimentos en esta instalación concernientes a la monitorización de la reactividad bajo la dirección del CIEMAT. Se han realizado dos tipos de experimentos: experimentos con una fuente de neutrones pulsada (PNS) y experimentos con una fuente continua con interrupciones cortas (beam trips). En el caso de los primeros, experimentos con fuente pulsada, existen dos técnicas fundamentales para medir la reactividad, conocidas como la técnica del ratio bajo las áreas de los neutrones inmediatos y retardados (o técnica de Sjöstrand) y la técnica de la constante de decaimiento de los neutrones inmediatos. Sin embargo, varios experimentos han mostrado la necesidad de aplicar técnicas de corrección para tener en cuenta los efectos espaciales y energéticos presentes en un sistema real y obtener valores precisos de la reactividad. En esta tesis, se han investigado estas correcciones mediante simulaciones del sistema con el código de Montecarlo MCNPX. Esta investigación ha servido también para proponer una versión generalizada de estas técnicas donde se buscan relaciones entre la reactividad el sistema y las cantidades medidas a través de simulaciones de Monte Carlo. El segundo tipo de experimentos, experimentos con una fuente continua e interrupciones del haz, es más probable que sea empleado en un ADS industrial. La versión generalizada de las técnicas desarrolladas para los experimentos con fuente pulsada también ha sido aplicada a los resultados de estos experimentos. Además, el trabajo presentado en esta tesis es la primera vez, en mi conocimiento, en que la reactividad de un sistema subcrítico se monitoriza durante la operación con tres técnicas simultáneas: la técnica de la relación entre la corriente y el flujo (current-to-flux), la técnica de desconexión rápida de la fuente (source-jerk) y la técnica del decaimiento de los neutrones inmediatos. Los casos analizados incluyen la variación rápida de la reactividad del sistema (inserción y extracción de las barras de control) y la variación rápida de la fuente de neutrones (interrupción larga del haz y posterior recuperación). ABSTRACT The management of long-lived radioactive wastes produced by nuclear reactors constitutes one of the main challenges of nuclear technology nowadays. A possible option for its management consists in the transmutation of long lived nuclides into shorter lived ones. Accelerator Driven Subcritical Systems (ADS) are one of the technologies in development to achieve this goal. An ADS consists in a subcritical nuclear reactor maintained in a steady state by an external neutron source driven by a particle accelerator. The interest of these systems lays on its capacity to be loaded with fuels having larger contents of minor actinides than conventional critical reactors, and in this way, increasing the transmutation rates of these elements, that are the main responsible of the long-term radiotoxicity of nuclear waste. One of the key points that have been identified for the operation of an industrial-scale ADS is the need of continuously monitoring the reactivity of the subcritical system during operation. For this reason, since the 1990s a number of experiments have been conducted in zero-power subcritical assemblies (MUSE, RACE, KUCA, Yalina, GUINEVERE/FREYA) in order to experimentally validate these techniques. In this context, the present thesis is concerned with the validation of reactivity monitoring techniques at the Yalina-Booster subcritical assembly. This assembly belongs to the Joint Institute for Power and Nuclear Research (JIPNR-Sosny) of the National Academy of Sciences of Belarus. Experiments concerning reactivity monitoring have been performed in this facility under the EUROTRANS project of the 6th EU Framework Program in year 2008 under the direction of CIEMAT. Two types of experiments have been carried out: experiments with a pulsed neutron source (PNS) and experiments with a continuous source with short interruptions (beam trips). For the case of the first ones, PNS experiments, two fundamental techniques exist to measure the reactivity, known as the prompt-to-delayed neutron area-ratio technique (or Sjöstrand technique) and the prompt neutron decay constant technique. However, previous experiments have shown the need to apply correction techniques to take into account the spatial and energy effects present in a real system and thus obtain accurate values for the reactivity. In this thesis, these corrections have been investigated through simulations of the system with the Monte Carlo code MCNPX. This research has also served to propose a generalized version of these techniques where relationships between the reactivity of the system and the measured quantities are obtained through Monte Carlo simulations. The second type of experiments, with a continuous source with beam trips, is more likely to be employed in an industrial ADS. The generalized version of the techniques developed for the PNS experiments has also been applied to the result of these experiments. Furthermore, the work presented in this thesis is the first time, to my knowledge, that the reactivity of a subcritical system has been monitored during operation simultaneously with three different techniques: the current-to-flux, the source-jerk and the prompt neutron decay techniques. The cases analyzed include the fast variation of the system reactivity (insertion and extraction of a control rod) and the fast variation of the neutron source (long beam interruption and subsequent recovery).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data centers are easily found in every sector of the worldwide economy. They are composed of thousands of servers, serving millions of users globally and 24-7. In the last years, e-Science applications such e-Health or Smart Cities have experienced a significant development. The need to deal efficiently with the computational needs of next-generation applications together with the increasing demand for higher resources in traditional applications has facilitated the rapid proliferation and growing of Data Centers. A drawback to this capacity growth has been the rapid increase of the energy consumption of these facilities. In 2010, data center electricity represented 1.3% of all the electricity use in the world. In year 2012 alone, global data center power demand grep 63% to 38GW. A further rise of 17% to 43GW was estimated in 2013. Moreover, Data Centers are responsible for more than 2% of total carbon dioxide emissions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente trabajo se plantea el estudio de las características acústicas del ladrillo artesanal e industrial fabricado en Ecuador, considerando las características particulares respecto a la calidad de la materia prima, además del hecho de que a nivel artesanal su producción no está regularizada, si bien existen una serie de reglamentos no siempre son acatados por el productor artesanal, lo que hace que presente propiedades particulares. La idea principal de este trabajo es generar datos referenciales e iniciales, sobre las propiedades acústicas del ladrillo artesanal e industrial ya que en Ecuador, no existe ningún estudio de esta naturaleza sobre el tema. Además de crear los mecanismos necesarios para una posible ampliación del estudio a otros materiales propios de Ecuador que permitan generar una base de datos sobre sus propiedades acústicas. Otro aspecto importante sobre esta investigación es el familiarizarse con el uso de técnicas de medición, manejo de equipamiento y software diverso, del manejo y comparación de normativa. ABSTRACT. The purpose of this paper is the study of the acoustic characteristics of artisanal and industrial brick manufactured in Ecuador, considering the particular characteristics regarding the quality of raw materials, besides the fact that artisanal production level is unregulated, although there are a number of regulations are not always complied with by the artisan producer, which makes this particular properties. The main idea of this paper is to generate reference and baseline data on the acoustic properties of artisanal and industrial brick as in Ecuador, there is no study of this nature on the subject. In addition to creating the necessary mechanisms for a possible extension of the study to other materials from Ecuador that will generate a database on its acoustic properties. Another important aspect of this research is to get familiar with the use of measurement techniques, equipment and miscellaneous management software, management and comparison of legislation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Arquitectura industrial del tabaco en España está representada por dos tipos de construcciones, que corresponden a las dos fases en las que se divide el proceso de producción del tabaco: los secaderos (arquitectura bioclimática donde se realiza el secado), y las fábricas (centros donde se elabora el tabaco procedente de los secaderos). Las fábricas se repartieron por todo el territorio español, ocupando preferiblemente los lugares costeros, aunque existen casos en los que su localización obedecía a razones políticas. Estos edificios, en su mayoría, incluidos en los centros históricos de las ciudades, han cambiando de uso, y las antiguas fábricas de tabaco se han transformado en su mayoría, en centros de cultura, o centros sociales y representativos. La tesis surge del análisis de las características constructivas de la arquitectura industrial del tabaco: de los secaderos y de las fábricas, por tratarse de una tipología con suficiente entidad y un ejemplo de arquitectura bioclimática de producción en el caso de los secaderos, y por conseguir haberse adaptado a otros usos en el caso de las fábricas. La arquitectura de producción emplea un lenguaje acorde con los avances de la industrialización, anticipando materiales y estructuras, y condensando en una tipología específica las complejas relaciones establecidas entre producto, hombres y espacio. Estos edificios tuvieron una extensa implantación en el territorio, y se caracterizan por una serie de valores tecnológicos, arquitectónicos, sociológicos y paisajísticos, que hacen de ellos un documento de primera magnitud para conocer: la evolución e implantación de las técnicas constructivas (materiales y estructuras), los procesos de innovación tipológica y la estructura económica y procedimientos técnicos utilizados. El territorio en el que se insertan constituye su contexto territorial, por lo que no sería adecuado considerar estos edificios como elementos aislados, sin analizar la relación con el entorno en el que se generaron. Por este motivo, se analizan las condiciones higrotérmicas ambientales de los secaderos para compararlas con las de confort humano y establecer relaciones y parámetros compatibles. Los ejemplos analizados de secaderos son todos de fábrica. El uso del ladrillo como módulo principal para la elaboración de un edificio, supone la consideración de un “grado cero” de todo el aparato constructivo y compositivo de la arquitectura. Dejar el ladrillo visto, supone hacer explícitos todos los procesos acumulativos. Este elemento mínimo, permite unas posibilidades enormemente abiertas, pero no absolutamente aleatorias, que definen su propia lógica combinatoria. La exigencia de sinceridad, característica de la arquitectura industrial, en la exposición de los materiales, exhibiéndolos en su propia naturaleza y en el modo real de ser utilizados, se hace patente en este tipo de construcción. Se realiza un estudio de permeabilidad en las fachadas de los secaderos, para determinar el grado de ventilación y su relación con la orientación, el patrón de celosía empleado y el volumen total. Este sistema de acondicionamiento climático específico, puede servir de recurso a otras construcciones, por lo que se podría trasladar el sistema constructivo y formal de los secaderos a otros usos, desde una doble vertiente: Arquitectura para la adaptación climática al entorno. Arquitectura como generadora de condiciones climáticas específicas, en el interior. La utilidad de los secaderos es fundamentalmente: proporcionar sombra, ventilación y un espacio cubierto, pero permeable en sus fachadas. La arquitectura industrial debe ser reconocida dentro del conjunto patrimonial, debido a sus características propias que permiten su diferenciación del resto de la arquitectura. Conocer la estructura productiva permite analizar correctamente estas construcciones, ya que el programa inicial es básico para entender la organización del espacio interior. Las fábricas no se situaron cerca de las zonas de producción del tabaco, excepto en dos casos: Cádiz y Palazuelo, en los que existen secaderos y campos de cultivo de hoja de tabaco en las áreas cercanas. La principal causa de esta separación es que el proceso de obtención de tabaco es un proceso dividido en dos fases principales: proceso primario y proceso secundario. En el proceso primario la hoja de tabaco se seca en los secaderos, en los que es determinante el clima, pero únicamente en el caso del secado del tabaco al aire. En el proceso secundario sin embargo, el tabaco llega previamente tratado a las fábricas, por lo que no influye el clima en esta parte del proceso. Esta razón determina que en las áreas climáticas donde se centra el estudio, haya zonas en las que existen fábrica y secaderos y otras en las que únicamente existe fábrica, o sólo secaderos. La localización de las fábricas atendía a razones de muy diferente índole, las más importantes fueron: geográficas, estratégicas, y políticas. En la mayoría de las fábricas la elección de la ciudad de emplazamiento estaba ligada a la recepción de la materia prima, que principalmente se hacía por vía marítima, o acuática (el caso de Sevilla), y por vía terrestre, utilizando como medio de transporte el ferrocarril. Sólo dos casos, de las antiguas fábricas, corresponden a razones políticas, son las dos únicas que no están en la costa: Madrid y Logroño. La de Madrid se construyó por centralidad política, y porque geográficamente ocupaba el punto central de todas las comunicaciones terrestres por carretera y ferrocarril. Muchas de las fábricas se situaron cercanas a las estaciones de ferrocarril. La de Logroño atendió, sin embargo, a razones políticas. Para finalizar, se realiza un estudio comparativo de las fábricas de Sevilla, Madrid y San Sebastián. Las razones que justifican esta elección son: - La de Sevilla fue históricamente la primera fábrica y la más importante. - La de Madrid fue la más importante a nivel administrativo, la sede de Tabacalera se instaló en la capital, y después de la de Sevilla, fue la que sirvió de modelo al resto de las fábricas. - La de San Sebastián era la más grande del Norte. Los análisis que se han realizado son de: volumen y superficies de patios, superficies de cubierta, permeabilidad o huecos en fachadas, orientación y soleamiento de patios, distribución espacial interior y organización, y evolución de usos. Podemos observar que en la mayoría de estas fábricas ha habido una transformación en el uso, pasando de ser edificios industriales a edificios culturales. Estas construcciones se pueden considerar como infraestructuras adaptables, por ser útiles, sostenibles y funcionales. ABSTRACT The Spanish industrial architecture of tobacco is represented by two construction types that correspond to the two phases of tobacco production: the drying sheds (bioclimatic constructions where the drying process takes place) and factories (centres where tobacco is processed after the drying process). The factories were distributed throughout the Spanish territory, preferably occupying coastal locations, although some of them were located elsewhere following political reasons. Most of the buildings inside city centres have suffered changes in their use, becoming cultural, social or representative centres. This thesis attempts the analysis of the constructive systems employed in tobacco industrial architecture, from drying sheds to factories. The drying sheds are an example of bioclimatic industrial architecture. The factories are a typology that have successfully adapted to new uses. Industrial architecture uses a language that follows the advances in industrialization, anticipating new materials and structures, and merging the complex relationships established among products, human beings, space and locations. These buildings were promoted extensively in the country. They are characterized by technological architectural sociological and landscaping innovations. They are considered as important examples of the evolution and the implementation of construction techniques (building materials and structures). They are also considered as examples of innovation in the building typology, in their economic structure and in the technologies that they have applied. The settings in which the drying sheds are placed have an important influence in them. They cannot be considered as isolated elements. Instead, there is a close relationship between drying sheds and the surroundings in which they are located. Drying sheds’ hygrotermal and environmental conditions are analyzed in this thesis to compare them with the values of human comfort and find suitable relationships and parameters. All the drying sheds that have been analyzed are constructed with brick. This implies a consideration of “zero degree” for both the construction and the composition of the architectural process. The detailing - entails making all the accumulative processes explicit as the brick walls are left exposed. This minimal component allows a wide range of options that are never random but based on the logic of the way in which it is combined. The “sincerity” in the exposition of material, displaying them in their very nature and showing how they are really used, is a basic characteristic of industrial architecture, and it is even more expressive in these types of buildings. The walls of the drying sheds undergo a permeability assessment in order to determine the degree of ventilation and orientation, the lattice pattern used and the overall volume. This specific conditioning system can serve as a resource for other buildings, and consequently, it could be transferred to other uses within a two-pronged approach: -Climatically adapted architecture that takes into account the surroundings. -Architecture as a generator of specific climatic conditions indoors. Drying sheds’ main purposes / aims deal with how to provide shade, ventilation and a covered space as well as permeability. The industrial architecture must be recognized as historical valuable buildings due to its intrinsic and distinctive characteristics. Knowing the productive structure, allow us to make a proper analysis of these buildings, since the basic aim, is to understand the spatial organization indoors. Factories did not come close to the tobacco production, with the exception of Cádiz and Palazuelo, where there are sheds and tobacco croplands nearby. The main reason for this separation is that the process of obtaining tobacco has two processes: the primary process and the secondary process. In the primary process tobacco leaves are left to dry. In the secondary process, previously manufactured tobacco allocated in the factories where the weather conditions are not important. This fact determines that in the climate areas where this study tales place there are some cases in which we can find both factories and drying sheds, and others where there are either factories or drying sheds only. The location of these factories met various demands, being the most outstanding the ones related to geographic, strategic and political reasons. In most factories the choice of its location was often linked to the incoming of raw goods, mainly delivered through waterways –it is the case of Seville,) and by land, using railways. The location of the factories was linked to political reasons in only two cases Madrid and Logroño, which are the only ones that are not placed near the coast. The one in Madrid was built due to its political centrality and because geographically speaking, it was the reference landmark of means of land and rail transports. Many factories, in fact, were settled nearby rail stations. For the factory in Logroño, only political reasons were taken into consideration. I should like to close by undertaking a comparative study of factories in Seville, Madrid and San Sebastian. There are a number of reasons to substantiate this choice: -The factory in Seville was historically speaking the first that was built and the most important one. -The factory in Madrid was the most important one administratively. This factory was the headquarters as well as being, after Seville, the one which provided a model for other factories. -The factory in San Sebastian is the biggest in the North of Spain. The analysis carried out are related to the volume of the buildings and the surface areas of the courtyards, the surface of the roofs, the permeability of the walls and the openings of the façade, the orientation and the sun exposure, the indoor spatial distribution and organization and evolution of the uses (formerly and currently) I observe that in most of these factories there has been a change in the use of the buildings, from industrial cultural purposes. These buildings can be considered as adaptable infrastructures based on a combination of architectural practicability, sustainability and functionality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para el análisis de la respuesta estructural, tradicionalmente se ha partido de la suposición de que los nudos son totalmente rígidos o articulados. Este criterio facilita en gran medida los cálculos, pero no deja de ser una idealización del comportamiento real de las uniones. Como es lógico, entre los nudos totalmente rígidos y los nudos articulados existe una gama infinita de valores de rigidez que podrían ser adoptados. A las uniones que presentan un valor distinto de los canónicos se les denomina en sentido general uniones semirrígidas. La consideración de esta rigidez intermedia complica considerablemente los cálculos estructurales, no obstante provoca cambios en el reparto de esfuerzos dentro de la estructura, así como en la configuración de las propias uniones, que en ciertas circunstancias pueden suponer una ventaja económica. Del planteamiento expuesto en el párrafo anterior, surgen dos cuestiones que serán el germen de la tesis. Estas son: ¿Qué ocurre si se aplica el concepto de uniones semirrígidas a las naves industriales? ¿Existen unos valores determinados de rigidez en sus nudos con los que se logra optimizar la estructura? Así, surge el objetivo principal de la tesis, que no es otro que conocer la influencia de la rigidez de los nudos en los costes de los pórticos a dos aguas de estructura metálica utilizados típicamente en edificios de uso agroindustrial. Para alcanzar el objetivo propuesto, se plantea una metodología de trabajo que básicamente consiste en el estudio de una muestra representativa de pórticos sometidos a tres estados de carga: bajo, medio y alto. Su rango de luces abarca desde los 8 a los 20 m y el de la altura de pilares desde los 3,5 a los 10 m. Además, se considera que sus uniones pueden adoptar valores intermedios de rigidez. De la combinatoria de las diferentes configuraciones posibles se obtienen 46.656 casos que serán objeto de estudio. Debido al fin economicista del trabajo, se ha prestado especial atención a la obtención de los costes de ejecución de las diferentes partidas que componen la estructura, incluidas las correspondientes a las uniones. Para acometer los cálculos estructurales ha sido imprescindible contar con un soporte informático, tanto existente como de creación ex profeso, que permitiese su automatización en un contexto de optimización. Los resultados del estudio consisten básicamente en una cantidad importante de datos que para su interpretación se hace imprescindible tratarlos previamente. Este tratamiento se fundamenta en su ordenación sistemática, en la aplicación de técnicas estadísticas y en la representación gráfica. Con esto se obtiene un catálogo de gráficos en los que se representa el coste total de la estructura según los diferentes valores de rigidez de sus nudos, unas matrices resumen de resultados y unos modelos matemáticos que representan la función coste total - rigideces de nudos. Como conclusiones se puede destacar: por un lado que los costes totales de los pórticos estudiados son mínimos cuando los valores de rigidez de sus uniones son bajos, concretamente de 5•10³ a 10•10³ kN•m/rad; y por otro que la utilización en estas estructuras de uniones semirrígidas con una combinación idónea de sus rigideces, supone una ventaja económica media del 18% con respecto a las dos tipologías que normalmente se usan en este tipo de edificaciones como son los pórticos biempotrados y los biarticulados. ABSTRACT Analyzing for structural response, traditionally it started from the assumption that joints are fully rigid or pinned. This criterion makes the design significantly easier, but it is also an idealization of real joint behaviour. As is to be expected, there is an almost endless range of stiffnes value between fully rigid and pinned joints, wich could be adopted. Joints with a value other than traditional are referred to generally as semi-rigid joints. If middle stiffness is considered, the structural design becomes much more complicated, however, it causes changes in the distribution of frame stresses, as well as on joints configuration, that under certain circumstances they may suppose an economic advantage. Two questions arise from the approach outlined in the preceding subparagraph, wich are the seeds of the doctoral thesis. These are: what happens when the concept of semirigid joints is applied to industrial buildings? There are certain stiffness values in their joints with which optimization of frame is achieved? This way, the main objective of the thesis arise, which is to know the influence of stiffness of joints in the cost of the steel frames with gabled roof, that they are typically used in industrial buildings. In order to achieve the proposed goal, a work methodology is proposed, which consists in essence in a study of a representative sample of frames under three load conditions: low, middle and high. Their range of spans comprises from 8 to 20 m and range of the height of columns cover from 3,5 to 10 m. Furthermore, it is considered that their joints can adopt intermediate values of stiffness. The result of the combination of different configurations options is 46.656 cases, which will be subject of study. Due to the economic aim of this work, a particular focus has been devoted for obtaining the execution cost of the different budget items that make up the structure, including those relating to joints. In order to do the structural calculations, count with a computing support has been indispensable, existing and created expressly for this purpose, which would allows its automation in a optimization context. The results of the study basically consist in a important amount of data, whose previous processing is necesary. This process is based on his systematic arrangement, in implementation of statistical techniques and in graphical representation. This give a catalogue of graphics, which depicts the whole cost of structure according to the different stiffness of its joints, a matrixes with the summary of results and a mathematical models which represent the function whole cost - stiffness of the joints. The most remarkable conclusions are: whole costs of the frames studied are minimum when the stiffness values of their joints are low, specifically 5•10³ a 10•10³ kN•m/rad; and the use of structures with semi-rigid joints and a suitable combination of their stiffness implyes an average economic advantage of 18% over other two typologies which are used typically in this kind of buildings; these are the rigid and bi-articulated frames.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El principal objetivo de esta tesis es verificar que las bolsas biodegradables de copoliéster (PBAT) con base de almidón (UNE 13432: 2001) alcanzan los niveles de degradación y desintegración requeridos para su certificación (%D= ≥ 90%), medido en condiciones reales de compostaje industrial. Para lograr mayor representatividad, los ensayos se han realizado en dos plantas de tratamiento de residuos urbanos en las que se aplican las técnicas de compostaje más comunes en el ámbito europeo y nacional, pila y túnel, mediante el compostaje de la FORSU. Se llevaron a cabo dos tipos de ensayos. Por un lado se realizó un ensayo escala de laboratorio (ISO 14855), orientado como indicador de la biodegradabilidad del polímero en el formato bolsa comercializado. Por otro lado, se desarrollaron una batería de ensayos realizados en dos plantas de compostaje de residuos urbanos: el Centro de Tratamiento de Residuos de Torija (Ávila), que realiza el compostaje mediante pila volteada, y el Centro de Tratamiento de Residuos de Arenas de San Pedro (Ávila), que realiza el compostaje en túnel. Para la obtención de resultados se han contrastado parámetros como el porcentaje de biodegradación (%B), el porcentaje de desintegración (%D), degradación superficial de las muestras, calidad de la FORSU inicial (caracterizaciones y análisis físico-químico) y calidad del MB final (análisis físico-químico e IG). Atendiendo al objetivo general se demuestra que las bolsas de copoliéster con base de almidón certificadas (UNE EN 13432:2001) han alcanzado el 94,37% ± 0,007% de desintegración en la planta de compostaje de FORSU con pila volteada; y el 86,36% ± 0,151% en la planta de compostaje de FORSU con túnel estático. A pesar de la aparente diferencia, el resultado del análisis concluye que no existen diferencias estadísticamente significativas entre técnicas de compostaje. La presencia de impropios y el contendido de metales pesados en la FORSU no han influido en la desintegración de las bolsas de estudio. En cambio, se ha detectado una influencia estadísticamente significativa entre el contenido de materia orgánica total y de nutrientes de la FORSU y el porcentaje de desintegración de las muestras. No se detectado una relación estadísticamente significativa entre la presencia de bolsas de estudio en las concentraciones definidas, y la calidad del MB, medido mediante el análisis físico-químico, microbiológico y el IG del MB. La concentración de los metales pesados en la mayoría de las muestras de material bioestabilizado cumplió con los límites establecidos para la categoría A, aplicable al “compost” procedente de la fracción orgánica recogida de forma separada según el RD 506/2013 de productos fertilizantes. También se detectó fitotoxicidad alta (FA) según la metodología y criterios de valoración definidos. Esta fitotoxicidad no está relacionada con la presencia de las bolsas de estudio sino con la calidad de la FORSU de partida y/o con los productos liberados durante el proceso de compostaje. ABSTRACT The main objective of this thesis is to verify that the copolyester (PBAT) starch based (UNE 13432: 2001) biodegradable bags reach levels of degradation and disintegration required for it´s certification (% D = ≥ 90%), measured in terms of real industrial composting. The tests were performed at two municipal solid waste (MSW) treatment plants, where the most common composting techniques applied at European and national level were represented, windrow and tunnel. Two types of tests were carried out: First, a laboratory scale test (ISO 14855), as an indicator of the polymer biodegradation of the commercialized bag format. Second, a battery of tests was conducted at two MSW composting plants, Waste Treatment Center of Torija (Guadalajara), that makes compost by turned pile, and the Waste Treatment Center of Arenas de San Pedro (Ávila), where makes compost by static tunnel. To obtain the results, the parameters such as the biodegradation percentage (% B), the disintegration percentage (% D), surface degradation of the samples, the initial quality of FORSU (characterizations and physico-chemical analysis) and bioestabilithated material (MB) quality (physico-chemical analysis and IG) have been compared. In reference to the general aim It shows that the copolyester starch based certified (UNE-EN 13432) bags have reached 94.37% ± 0.007% of disintegration in the composting turned pile; and 86.36% ± 0.151% in the static tunnel. Despite the apparent difference, the result of the analysis concludes that there are no statistically significant differences between composting techniques. The presence of non-compostable materials and the heavy metals content in the FORSU has not affected in the disintegration of the bags. Instead, It has been detected a statistically significant influence over the total organic matter content and nutrient content in the FORSU and the samples disintegration percentage. A statistically significant relationship between the bag presence in the defined concentrations and the quality of MB measured by physical-chemical analysis, microbiological analysis and IG of the MB is not detected. The concentration of heavy metals in most MB samples was within the limits of A-Class, applicable to "compost" from organic waste collected separately according to RD 506/2013 of fertilizers. High phytotoxicity (FA) was also detected according to the methodology and evaluation defined. The phytotoxicity is not related to the presence of bags but it is with the FORSU initial quality and/or with the products released during the composting process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE The decision-making process plays a key role in organizations. Every decision-making process produces a final choice that may or may not prompt action. Recurrently, decision makers find themselves in the dichotomous question of following a traditional sequence decision-making process where the output of a decision is used as the input of the next stage of the decision, or following a joint decision-making approach where several decisions are taken simultaneously. The implication of the decision-making process will impact different players of the organization. The choice of the decision- making approach becomes difficult to find, even with the current literature and practitioners’ knowledge. The pursuit of better ways for making decisions has been a common goal for academics and practitioners. Management scientists use different techniques and approaches to improve different types of decisions. The purpose of this decision is to use the available resources as well as possible (data and techniques) to achieve the objectives of the organization. The developing and applying of models and concepts may be helpful to solve managerial problems faced every day in different companies. As a result of this research different decision models are presented to contribute to the body of knowledge of management science. The first models are focused on the manufacturing industry and the second part of the models on the health care industry. Despite these models being case specific, they serve the purpose of exemplifying that different approaches to the problems and could provide interesting results. Unfortunately, there is no universal recipe that could be applied to all the problems. Furthermore, the same model could deliver good results with certain data and bad results for other data. A framework to analyse the data before selecting the model to be used is presented and tested in the models developed to exemplify the ideas. METHODOLOGY As the first step of the research a systematic literature review on the joint decision is presented, as are the different opinions and suggestions of different scholars. For the next stage of the thesis, the decision-making process of more than 50 companies was analysed in companies from different sectors in the production planning area at the Job Shop level. The data was obtained using surveys and face-to-face interviews. The following part of the research into the decision-making process was held in two application fields that are highly relevant for our society; manufacturing and health care. The first step was to study the interactions and develop a mathematical model for the replenishment of the car assembly where the problem of “Vehicle routing problem and Inventory” were combined. The next step was to add the scheduling or car production (car sequencing) decision and use some metaheuristics such as ant colony and genetic algorithms to measure if the behaviour is kept up with different case size problems. A similar approach is presented in a production of semiconductors and aviation parts, where a hoist has to change from one station to another to deal with the work, and a jobs schedule has to be done. However, for this problem simulation was used for experimentation. In parallel, the scheduling of operating rooms was studied. Surgeries were allocated to surgeons and the scheduling of operating rooms was analysed. The first part of the research was done in a Teaching hospital, and for the second part the interaction of uncertainty was added. Once the previous problem had been analysed a general framework to characterize the instance was built. In the final chapter a general conclusion is presented. FINDINGS AND PRACTICAL IMPLICATIONS The first part of the contributions is an update of the decision-making literature review. Also an analysis of the possible savings resulting from a change in the decision process is made. Then, the results of the survey, which present a lack of consistency between what the managers believe and the reality of the integration of their decisions. In the next stage of the thesis, a contribution to the body of knowledge of the operation research, with the joint solution of the replenishment, sequencing and inventory problem in the assembly line is made, together with a parallel work with the operating rooms scheduling where different solutions approaches are presented. In addition to the contribution of the solving methods, with the use of different techniques, the main contribution is the framework that is proposed to pre-evaluate the problem before thinking of the techniques to solve it. However, there is no straightforward answer as to whether it is better to have joint or sequential solutions. Following the proposed framework with the evaluation of factors such as the flexibility of the answer, the number of actors, and the tightness of the data, give us important hints as to the most suitable direction to take to tackle the problem. RESEARCH LIMITATIONS AND AVENUES FOR FUTURE RESEARCH In the first part of the work it was really complicated to calculate the possible savings of different projects, since in many papers these quantities are not reported or the impact is based on non-quantifiable benefits. The other issue is the confidentiality of many projects where the data cannot be presented. For the car assembly line problem more computational power would allow us to solve bigger instances. For the operation research problem there was a lack of historical data to perform a parallel analysis in the teaching hospital. In order to keep testing the decision framework it is necessary to keep applying more case studies in order to generalize the results and make them more evident and less ambiguous. The health care field offers great opportunities since despite the recent awareness of the need to improve the decision-making process there are many opportunities to improve. Another big difference with the automotive industry is that the last improvements are not spread among all the actors. Therefore, in the future this research will focus more on the collaboration between academia and the health care sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la última década la potencia instalada de energía solar fotovoltaica ha crecido una media de un 49% anual y se espera que alcance el 16%del consumo energético mundial en el año 2050. La mayor parte de estas instalaciones se corresponden con sistemas conectados a la red eléctrica y un amplio porcentaje de ellas son instalaciones domésticas o en edificios. En el mercado ya existen diferentes arquitecturas para este tipo de instalaciones, entre las que se encuentras los módulos AC. Un módulo AC consiste en un inversor, también conocido como micro-inversor, que se monta en la parte trasera de un panel o módulo fotovoltaico. Esta tecnología ofrece modularidad, redundancia y la extracción de la máxima potencia de cada panel solar de la instalación. Además, la expansión de esta tecnología posibilitará una reducción de costes asociados a las economías de escala y a la posibilidad de que el propio usuario pueda componer su propio sistema. Sin embargo, el micro-inversor debe ser capaz de proporcionar una ganancia de tensión adecuada para conectar el panel solar directamente a la red, mientras mantiene un rendimiento aceptable en un amplio rango de potencias. Asimismo, los estándares de conexión a red deber ser satisfechos y el tamaño y el tiempo de vida del micro-inversor son factores que han de tenerse siempre en cuenta. En esta tesis se propone un micro-inversor derivado de la topología “forward” controlado en el límite entre los modos de conducción continuo y discontinuo (BCM por sus siglas en inglés). El transformador de la topología propuesta mantiene la misma estructura que en el convertidor “forward” clásico y la utilización de interruptores bidireccionales en el secundario permite la conexión directa del inversor a la red. Asimismo el método de control elegido permite obtener factor de potencia cercano a la unidad con una implementación sencilla. En la tesis se presenta el principio de funcionamiento y los principales aspectos del diseño del micro-inversor propuesto. Con la idea de mantener una solución sencilla y de bajo coste, se ha seleccionado un controlador analógico que está originalmente pensado para controlar un corrector del factor de potencia en el mismo modo de conducción que el micro-inversor “forward”. La tesis presenta las principales modificaciones necesarias, con especial atención a la detección del cruce por cero de la corriente (ZCD por sus siglas en inglés) y la compatibilidad del controlador con la inclusión de un algoritmo de búsqueda del punto de máxima potencia (MPPT por sus siglas en inglés). Los resultados experimentales muestran las limitaciones de la implementación elegida e identifican al transformador como el principal contribuyente a las pérdidas del micro-inversor. El principal objetivo de esta tesis es contribuir a la aplicación de técnicas de control y diseño de sistemas multifase en micro-inversores fotovoltaicos. En esta tesis se van a considerar dos configuraciones multifase diferentes aplicadas al micro-inversor “forward” propuesto. La primera consiste en una variación con conexión paralelo-serie que permite la utilización de transformadores con una relación de vueltas baja, y por tanto bien acoplados, para conseguir una ganancia de tensión adecuada con un mejor rendimiento. Esta configuración emplea el mismo control BCM cuando la potencia extraída del panel solar es máxima. Este método de control implica que la frecuencia de conmutación se incrementa considerablemente cuando la potencia decrece, lo que compromete el rendimiento. Por lo tanto y con la intención de mantener unos bueno niveles de rendimiento ponderado, el micro-inversor funciona en modo de conducción discontinuo (DCM, por sus siglas en inglés) cuando la potencia extraía del panel solar es menor que la máxima. La segunda configuración multifase considerada en esta tesis es la aplicación de la técnica de paralelo con entrelazado. Además se han considerado dos técnicas diferentes para decidir el número de fases activas: dependiendo de la potencia continua extraída del panel solar y dependiendo de la potencia instantánea demandada por el micro-inversor. La aplicación de estas técnicas es interesante en los sistemas fotovoltaicos conectados a la red eléctrica por la posibilidad que brindan de obtener un rendimiento prácticamente plano en un amplio rango de potencia. Las configuraciones con entrelazado se controlan en DCM para evitar la necesidad de un control de corriente, lo que es importante cuando el número de fases es alto. Los núcleos adecuados para todas las configuraciones multifase consideradas se seleccionan usando el producto de áreas. Una vez seleccionados los núcleos se ha realizado un diseño detallado de cada uno de los transformadores. Con la información obtenida de los diseños y los resultados de simulación, se puede analizar el impacto que el número de transformadores utilizados tiene en el tamaño y el rendimiento de las distintas configuraciones. Los resultados de este análisis, presentado en esta tesis, se utilizan posteriormente para comparar las distintas configuraciones. Muchas otras topologías se han presentado en la literatura para abordar los diferentes aspectos a considerar en los micro-inversores, que han sido presentados anteriormente. La mayoría de estas topologías utilizan un transformador de alta frecuencia para solventar el salto de tensión y evitar problemas de seguridad y de puesta a tierra. En cualquier caso, es interesante evaluar si topologías sin aislamiento galvánico son aptas para su utilización como micro-inversores. En esta tesis se presenta una revisión de inversores con capacidad de elevar tensión, que se comparan bajo las mismas especificaciones. El objetivo es proporcionar la información necesaria para valorar si estas topologías son aplicables en los módulos AC. Las principales contribuciones de esta tesis son: • La aplicación del control BCM a un convertidor “forward” para obtener un micro-inversor de una etapa sencillo y de bajo coste. • La modificación de dicho micro-inversor con conexión paralelo-series de transformadores que permite reducir la corriente de los semiconductores y una ganancia de tensión adecuada con transformadores altamente acoplados. • La aplicación de técnicas de entrelazado y decisión de apagado de fases en la puesta en paralelo del micro-inversor “forward”. • El análisis y la comparación del efecto en el tamaño y el rendimiento del incremento del número de transformadores en las diferentes configuraciones multifase. • La eliminación de las medidas y los lazos de control de corriente en las topologías multifase con la utilización del modo de conducción discontinuo y un algoritmo MPPT sin necesidad de medida de corriente. • La recopilación y comparación bajo las mismas especificaciones de topologías inversoras con capacidad de elevar tensión, que pueden ser adecuadas para la utilización como micro-inversores. Esta tesis está estructurada en seis capítulos. El capítulo 1 presenta el marco en que se desarrolla la tesis así como el alcance de la misma. En el capítulo 2 se recopilan las topologías existentes de micro-invesores con aislamiento y aquellas sin aislamiento cuya implementación en un módulo AC es factible. Asimismo se presenta la comparación entre estas topologías bajo las mismas especificaciones. El capítulo 3 se centra en el micro-inversor “forward” que se propone originalmente en esta tesis. La aplicación de las técnicas multifase se aborda en los capítulos 4 y 5, en los que se presentan los análisis en función del número de transformadores. El capítulo está orientado a la propuesta paralelo-serie mientras que la configuración con entrelazado se analiza en el capítulo 5. Por último, en el capítulo 6 se presentan las contribuciones de esta tesis y los trabajos futuros. ABSTRACT In the last decade the photovoltaic (PV) installed power increased with an average growth of 49% per year and it is expected to cover the 16% of the global electricity consumption by 2050. Most of the installed PV power corresponds to grid-connected systems, with a significant percentage of residential installations. In these PV systems, the inverter is essential since it is the responsible of transferring into the grid the extracted power from the PV modules. Several architectures have been proposed for grid-connected residential PV systems, including the AC-module technology. An AC-module consists of an inverter, also known as micro-inverter, which is attached to a PV module. The AC-module technology offers modularity, redundancy and individual MPPT of each module. In addition, the expansion of this technology will enable the possibility of economies of scale of mass market and “plug and play” for the user, thus reducing the overall cost of the installation. However, the micro-inverter must be able to provide the required voltage boost to interface a low voltage PV module to the grid while keeping an acceptable efficiency in a wide power range. Furthermore, the quality standards must be satisfied and size and lifetime of the solutions must be always considered. In this thesis a single-stage forward micro-inverter with boundary mode operation is proposed to address the micro-inverter requirements. The transformer in the proposed topology remains as in the classic forward converter and bidirectional switches in the secondary side allows direct connection to the grid. In addition the selected control strategy allows high power factor current with a simple implementation. The operation of the topology is presented and the main design issues are introduced. With the intention to propose a simple and low-cost solution, an analog controller for a PFC operated in boundary mode is utilized. The main necessary modifications are discussed, with the focus on the zero current detection (ZCD) and the compatibility of the controller with a MPPT algorithm. The experimental results show the limitations of the selected analog controller implementation and the transformer is identified as a main losses contributor. The main objective of this thesis is to contribute in the application of control and design multiphase techniques to the PV micro-inverters. Two different multiphase configurations have been applied to the forward micro-inverter proposed in this thesis. The first one consists of a parallel-series connected variation which enables the use of low turns ratio, i.e. well coupled, transformers to achieve a proper voltage boost with an improved performance. This multiphase configuration implements BCM control at maximum load however. With this control method the switching frequency increases significantly for light load operation, thus jeopardizing the efficiency. Therefore, in order to keep acceptable weighted efficiency levels, DCM operation is selected for low power conditions. The second multiphase variation considered in this thesis is the interleaved configuration with two different phase shedding techniques: depending on the DC power extracted from the PV panel, and depending on the demanded instantaneous power. The application of interleaving techniques is interesting in PV grid-connected inverters for the possibility of flat efficiency behavior in a wide power range. The interleaved variations of the proposed forward micro-inverter are operated in DCM to avoid the current loop, which is important when the number of phases is large. The adequate transformer cores for all the multiphase configurations are selected according to the area product parameter and a detailed design of each required transformer is developed. With this information and simulation results, the impact in size and efficiency of the number of transformer used can be assessed. The considered multiphase topologies are compared in this thesis according to the results of the introduced analysis. Several other topological solutions have been proposed to solve the mentioned concerns in AC-module application. The most of these solutions use a high frequency transformer to boost the voltage and avoid grounding and safety issues. However, it is of interest to assess if the non-isolated topologies are suitable for AC-module application. In this thesis a review of transformerless step-up inverters is presented. The compiled topologies are compared using a set benchmark to provide the necessary information to assess whether non-isolated topologies are suitable for AC-module application. The main contributions of this thesis are: • The application of the boundary mode control with constant off-time to a forward converter, to obtain a simple and low-cost single-stage forward micro-inverter. • A modification of the forward micro-inverter with primary-parallel secondary-series connected transformers to reduce the current stress and improve the voltage gain with highly coupled transformers. •The application of the interleaved configuration with different phase shedding strategies to the proposed forward micro-inverter. • An analysis and comparison of the influence in size and efficiency of increasing the number of transformers in the parallel-series and interleaved multiphase configurations. • Elimination of the current loop and current measurements in the multiphase topologies by adopting DCM operation and a current sensorless MPPT. • A compilation and comparison with the same specifications of suitable non-isolated step-up inverters. This thesis is organized in six chapters. In Chapter 1 the background of single-phase PV-connected systems is discussed and the scope of the thesis is defined. Chapter 2 compiles the existing solutions for isolated micro-inverters and transformerless step-up inverters suitable for AC-module application. In addition, the most convenient non-isolated inverters are compared using a defined benchmark. Chapter 3 focuses on the originally proposed single-stage forward micro-inverter. The application of multiphase techniques is addressed in Chapter 4 and Chapter 5, and the impact in different parameters of increasing the number of phases is analyzed. In Chapter 4 an original primary-parallel secondary-series variation of the forward micro-inverter is presented, while Chapter 5 focuses on the application of the interleaved configuration. Finally, Chapter 6 discusses the contributions of the thesis and the future work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de la tecnología de la luz implicará la transformación de la vida social, cultural y económica. Tanto las consideraciones espaciales del Movimiento Moderno, como los efectos producidos por la segunda Guerra Mundial, tendrán efectos visibles en las nuevas configuraciones espaciales y en la relación simbiótica y recíproca que se dará entre ideología y tecnología. La transformación en la comprensión de la articulación espacial, asociada al desarrollo tecnológico, afectará al modo en que este espacio es experimentado y percibido. El espacio expositivo y el espacio escénico se convertirán en laboratorio práctico donde desarrollar y hacer comprensible todo el potencial ilusorio de la luz, la proyección y la imagen, como parámetros modificadores y dinamizadores del espacio arquitectónico. Esta experimentación espacial estará precedida por la investigación y creación conceptual en el mundo plástico, donde los nuevos medios mecánicos serán responsables de la construcción de una nueva mirada moderna mediatizada por los elementos técnicos. La experimentación óptica, a través de la fotografía, el cine, o el movimiento de la luz y su percepción, vinculada a nuevos modos de representación y comunicación, se convertirá en elemento fundamental en la configuración espacial. Este ámbito de experimentación se hará patente en la Escuela de la Bauhaus, de la mano de Gropius, Schlemmer o Moholy Nagy entre otros; tanto en reflexiones teóricas como en el desarrollo de proyectos expositivos, arquitectónicos o teatrales, que evolucionarán en base a la tecnología y la modificación de la relación con el espectador. El espacio expositivo y el espacio escénico se tomarán como oportunidad de investigación espacial y de análisis de los modos de percepción, convirtiéndose en lugares de experimentación básicos para el aprendizaje. El teatro se postula como punto de encuentro entre el arte y la técnica, cobrando especial importancia la intersección con otras disciplinas en la definición espacial. Las múltiples innovaciones técnicas ligadas a los nuevos fundamentos teatrales en la modificación de la relación con la escena, que se producen a principios del siglo XX, tendrán como consecuencia la transformación del espacio en un espacio dinámico, tanto física como perceptivamente, que dará lugar a nuevas concepciones espaciales, muchas de ellas utópicas. La luz, la proyección y la creación de ilusión en base a estímulos visuales y sonoros, aparecen como elementos proyectuales efímeros e inmateriales, que tendrán una gran incidencia en el espacio y su modo de ser experimentado. La implicación de la tecnología en el arte conllevará modificaciones en la visualización, así como en la configuración espacial de los espacios destinados a esta. Destacaremos como propuesta el Teatro Total de Walter Gropius, en cuyo desarrollo se recogen de algún modo las experiencias espaciales y las investigaciones desarrolladas sobre la estructura formal de la percepción realizadas por Moholy Nagy, además de los conceptos acerca del espacio escénico desarrollados en el taller de Teatro de la Bauhaus por Oskar Schlemmer. En el Teatro Total, Gropius incorporará su propia visión de cuestiones que pertenecen a la tradición de la arquitectura teatral y las innovaciones conceptuales que estaban teniendo lugar desde finales del s.XIX, tales como la participación activa del público o la superación entre escena y auditorio, estableciendo en el proyecto una nueva relación perceptual entre sala, espectáculo y espectador; aumentando la sensación de inmersión, a través del uso de la física, la óptica, y la acústica, creando una energía concéntrica capaz de extenderse en todas direcciones. El Teatro Total será uno de los primeros ejemplos en los que desde el punto de partida del proyecto, se conjuga la imagen como elemento comunicativo con la configuración espacial. Las nuevas configuraciones escénicas tendrán como premisa de desarrollo la capacidad de transformación tanto perceptiva, como física. En la segunda mitad del s.XX, la creación de centros de investigación como el CAVS (The Center for Advanced Visual Studies,1967), o el EAT (Experiments in Art and Technology, 1966), favorecerán la colaboración interdisciplinar entre arte y ciencia, implicando a empresas de carácter tecnológico, como Siemens, HP, IBM o Philips, facilitando soporte técnico y económico para el desarrollo de nuevos sistemas. Esta colaboración interdisciplinar dará lugar a una serie de intervenciones espaciales que tendrán su mayor visibilidad en algunas Exposiciones Universales. El resultado será, en la mayoría de los casos, la creación de espacios de carácter inmersivo, donde se establecerá una relación simbiótica entre espacio, imagen, sonido, y espectador. La colocación del espectador en el centro de la escena y la disposición dinámica de imagen y sonido, crearán una particular narrativa espacial no lineal, concebida para la experiencia. Desde las primeras proyecciones de cine a la pantalla múltiple de los Eames, las técnicas espaciales de difusión del sonido en Stockhausen, o los experimentos con el movimiento físico interactivo, la imagen, la luz en movimiento y el sonido, quedan inevitablemente convertidos en material arquitectónico. ABSTRACT. Light technology development would lead to a social, cultural and economic transformation. Both spatial consideration of “Modern Movement” and Second World War effects on technology, would have a visible aftereffect on spatial configuration and on the symbiotic and mutual relationship between ideology & technology. Comprehension adjustment on the articulation of space together with technology development, would impact on how space is perceived and felt. Exhibition space and scenic space would turn into a laboratory where developing and making comprehensive all illusory potential of light, projection and image. These new parameters would modify and revitalize the architectonic space. as modifying and revitalizing parameters of architectonic space. Spatial experimentation would be preceded by conceptual creation and investigation on the sculptural field, where new mechanic media would be responsible for a fresh and modern look influenced by technical elements. Optical experimentation, through photography, cinema or light movement and its perception, would turn into essential components for spatial arrangement linked to new ways of performance and communication. This experimentation sphere would be clear at The Bauhaus School, by the hand of Gropius, Schlemmer or Moholy Nag among others; in theoretical, theatrical or architectural performance’s projects, that would evolve based on technology and also based on the transformation of the relationship with the observer. Exhibition and perfor-mance areas would be taken as opportunities of spatial investigation and for the analysis of the different ways of perception, thus becoming key places for learning. Theater is postulated as a meeting point between art and technique, taking on a new significance at its intersection with other disciplines working with spatial definition too. The multiple innovation techniques linked to the new foundations for the theater regarding stage relation, would have as a consequence the regeneration of the space. Space would turn dynamic, both physically and perceptibly, bringing innovative spatial conceptions, many of them unrealistic. Light, projection and illusory creation based on sound and visual stimulus would appear as intangible and momentary design components, which would have a great impact on the space and on the way it is experienced. Implication of technology in art would bring changes on the observer as well as on the spatial configuration of the art spaces2. It would stand out as a proposal Walter Groupis Total Theater, whose development would include somehow the spatial experiments and studies about formal structure of perception accomplished by Moholy Nagy besides the concepts regarding stage space enhanced at the Bauhaus Theater Studio by Oskar Schlemmer. Within Total Theater, Groupis would incorporate his own view about traditional theatric architecture and conceptual innovations that were taking place since the end of the nineteenth century, such as active audience participation or the diffusing limits between scene and audience, establishing a new perception relationship between auditorium, performance and audience, improving the feeling of immersion through the use of physics, optics and acoustics, creating a concentric energy capable of spreading in all directions. Total Theater would be one of the first example in which, from the beginning of the Project, image is combined as a communicating element with the spatial configuration. As a premise of development, new stage arrangement would have the capacity of transformation, both perceptive and physically. During the second half or the twentieth century, the creation of investigation centers such as CAVS (Center for Advanced Visual Studies, 1967) or EAT (Experiments in Art and Technology, 1966), would help to the interdisciplinary collaboration between art and science, involving technology companies like Siemens, HP, IBM or Philips, providing technical and economic support to the development of new systems. This interdisciplinary collaboration would give room to a series of spatial interventions which would have visibility in some Universal Exhibitions. The result would be, in most cases, the creation of immersive character spaces, where a symbiotic relationship would be stablished between space, image, sound and audience. The new location of the audience in the middle of the display, together with the dynamic arrangement of sound and image would create a particular, no lineal narrative conceived to be experienced. Since the first cinema projections, the multiple screen of Eames, the spatial techniques for sound dissemination at Stockhausen or the interactive physical movement experimentation, image, motion light and sound would turn inevitably into architectural material.