63 resultados para INDUSTRIA AVICOLA - ADMINISTRACION - ESTUDIO DE CASOS PRODUCTIVIDAD INDUSTRIAL - ESTUDIO DE CASOS
Understanding and improving the chemical vapor deposition process for solar grade silicon production
Resumo:
Esta Tesis Doctoral se centra en la investigación del proceso de producción de polisilicio para aplicaciones fotovoltaicas (FV) por la vía química; mediante procesos de depósito en fase vapor (CVD). El polisilicio para la industria FV recibe el nombre de silicio de grado solar (SoG Si). Por un lado, el proceso que domina hoy en día la producción de SoG Si está basado en la síntesis, destilación y descomposición de triclorosilano (TCS) en un reactor CVD -denominado reactor Siemens-. El material obtenido mediante este proceso es de muy alta pureza, pero a costa de un elevado consumo energético. Así, para alcanzar los dos principales objetivos de la industria FV basada en silicio, bajos costes de producción y bajo tiempo de retorno de la energía invertida en su fabricación, es esencial disminuir el consumo energético de los reactores Siemens. Por otro lado, una alternativa al proceso Siemens considera la descomposición de monosilano (MS) en un reactor de lecho fluidizado (FBR). Este proceso alternativo tiene un consumo energético mucho menor que el de un reactor Siemens, si bien la calidad del material resultante es también menor; pero ésta puede ser suficiente para la industria FV. A día de hoy los FBR deben aún abordar una serie de retos para que su menor consumo energético sea una ventaja suficiente comparada con otras desventajas de estos reactores. En resumen, la investigación desarrollada se centra en el proceso de depósito de polysilicio por CVD a partir de TCS -reactor Siemens-; pero también se investiga el proceso de producción de SoG Si en los FBR exponiendo las fortalezas y debilidades de esta alternativa. Para poder profundizar en el conocimiento del proceso CVD para la producción de polisilicio es clave el conocimiento de las reacciones químicas fundamentales y cómo éstas influencian la calidad del producto resultante, al mismo tiempo que comprender los fenómenos responsables del consumo energético. Por medio de un reactor Siemens de laboratorio en el que se llevan a cabo un elevado número de experimentos de depósito de polisilicio de forma satisfactoria se adquiere el conocimiento previamente descrito. Se pone de manifiesto la complejidad de los reactores CVD y de los problemas asociados a la pérdidas de calor de estos procesos. Se identifican las contribuciones a las pérdidas de calor de los reactores CVD, éstas pérdidas de calor son debidas principalmente a los fenómenos de radiación y, conducción y convección vía gases. En el caso de los reactores Siemens el fenómeno que contribuye en mayor medida al alto consumo energético son las pérdidas de calor por radiación, mientras que en los FBRs tanto la radiación como el calor transferido por transporte másico contribuyen de forma importante. Se desarrolla un modelo teórico integral para el cálculo de las pérdidas de calor en reactores Siemens. Este modelo está formado a su vez por un modelo para la evaluación de las pérdidas de calor por radiación y modelos para la evaluación de las pérdidas de calor por conducción y convección vía gases. Se ponen de manifiesto una serie de limitaciones del modelo de pérdidas de calor por radiación, y se desarrollan una serie de modificaciones que mejoran el modelo previo. El modelo integral se valida por medio un reactor Siemens de laboratorio, y una vez validado se presenta su extrapolación a la escala industrial. El proceso de conversión de TCS y MS a polisilicio se investiga mediante modelos de fluidodinámica computacional (CFD). Se desarrollan modelados CFD para un reactor Siemens de laboratorio y para un prototipo FBR. Los resultados obtenidos mediante simulación son comparados, en ambos casos, con resultados experimentales. Los modelos desarrollados se convierten en herramientas para la identificación de aquellos parámetros que tienen mayor influencia en los procesos CVD. En el caso del reactor Siemens, ambos modelos -el modelo integral y el modelado CFD permiten el estudio de los parámetros que afectan en mayor medida al elevado consumo energético, y mediante su análisis se sugieren modificaciones para este tipo de reactores que se traducirían en un menor número de kilovatios-hora consumidos por kilogramo de silicio producido. Para el caso del FBR, el modelado CFD permite analizar el efecto de una serie de parámetros sobre la distribución de temperaturas en el lecho fluidizado; y dicha distribución de temperaturas está directamente relacionada con los principales retos de este tipo de reactores. Por último, existen nuevos conceptos de depósito de polisilicio; éstos se aprovechan de la ventaja teórica de un mayor volumen depositado por unidad de tiempo -cuando una mayor superficie de depósito está disponible- con el objetivo de reducir la energía consumida por los reactores Siemens. Estos conceptos se exploran mediante cálculos teóricos y pruebas en el reactor Siemens de laboratorio. ABSTRACT This Doctoral Thesis comprises research on polysilicon production for photovoltaic (PV) applications through the chemical route: chemical vapor deposition (CVD) process. PV polysilicon is named solar grade silicon (SoG Si). On the one hand, the besetting CVD process for SoG Si production is based on the synthesis, distillation, and decomposition of thriclorosilane (TCS) in the so called Siemens reactor; high purity silicon is obtained at the expense of high energy consumption. Thus, lowering the energy consumption of the Siemens process is essential to achieve the two wider objectives for silicon-based PV technology: low production cost and low energy payback time. On the other hand, a valuable variation of this process considers the use of monosilane (MS) in a fluidized bed reactor (FBR); lower output material quality is obtained but it may fulfil the requirements for the PV industry. FBRs demand lower energy consumption than Siemens reactors but further research is necessary to address the actual challenges of these reactors. In short, this work is centered in polysilicon CVD process from TCS -Siemens reactor-; but it also offers insights on the strengths and weaknesses of the FBR for SoG Si production. In order to aid further development in polysilicon CVD is key the understanding of the fundamental reactions and how they influence the product quality, at the same time as to comprehend the phenomena responsible for the energy consumption. Experiments conducted in a laboratory Siemens reactor prove the satisfactory operation of the prototype reactor, and allow to acquire the knowledge that has been described. Complexity of the CVD reactors is stated and the heat loss problem associated with polysilicon CVD is addressed. All contributions to the energy consumption of Siemens reactors and FBRs are put forward; these phenomena are radiation and, conduction and convection via gases heat loss. In a Siemens reactor the major contributor to the energy consumption is radiation heat loss; in case of FBRs radiation and heat transfer due to mass transport are both important contributors. Theoretical models for radiation, conduction and convection heat loss in a Siemens reactor are developed; shaping a comprehensive theoretical model for heat loss in Siemens reactors. Limitations of the radiation heat loss model are put forward, and a novel contribution to the existing model is developed. The comprehensive model for heat loss is validated through a laboratory Siemens reactor, and results are scaled to industrial reactors. The process of conversion of TCS and MS gases to solid polysilicon is investigated by means of computational fluid-dynamics models. CFD models for a laboratory Siemens reactor and a FBR prototype are developed. Simulated results for both CVD prototypes are compared with experimental data. The developed models are used as a tool to investigate the parameters that more strongly influence both processes. For the Siemens reactors, both, the comprehensive theoretical model and the CFD model allow to identify the parameters responsible for the great power consumption, and thus, suggest some modifications that could decrease the ratio kilowatts-hour per kilogram of silicon produced. For the FBR, the CFD model allows to explore the effect of a number of parameters on the thermal distribution of the fluidized bed; that is the main actual challenge of these type of reactors. Finally, there exist new deposition surface concepts that take advantage of higher volume deposited per time unit -when higher deposition area is available- trying to reduce the high energy consumption of the Siemens reactors. These novel concepts are explored by means of theoretical calculations and tests in the laboratory Siemens prototype.
Resumo:
La Arquitectura industrial del tabaco en España está representada por dos tipos de construcciones, que corresponden a las dos fases en las que se divide el proceso de producción del tabaco: los secaderos (arquitectura bioclimática donde se realiza el secado), y las fábricas (centros donde se elabora el tabaco procedente de los secaderos). Las fábricas se repartieron por todo el territorio español, ocupando preferiblemente los lugares costeros, aunque existen casos en los que su localización obedecía a razones políticas. Estos edificios, en su mayoría, incluidos en los centros históricos de las ciudades, han cambiando de uso, y las antiguas fábricas de tabaco se han transformado en su mayoría, en centros de cultura, o centros sociales y representativos. La tesis surge del análisis de las características constructivas de la arquitectura industrial del tabaco: de los secaderos y de las fábricas, por tratarse de una tipología con suficiente entidad y un ejemplo de arquitectura bioclimática de producción en el caso de los secaderos, y por conseguir haberse adaptado a otros usos en el caso de las fábricas. La arquitectura de producción emplea un lenguaje acorde con los avances de la industrialización, anticipando materiales y estructuras, y condensando en una tipología específica las complejas relaciones establecidas entre producto, hombres y espacio. Estos edificios tuvieron una extensa implantación en el territorio, y se caracterizan por una serie de valores tecnológicos, arquitectónicos, sociológicos y paisajísticos, que hacen de ellos un documento de primera magnitud para conocer: la evolución e implantación de las técnicas constructivas (materiales y estructuras), los procesos de innovación tipológica y la estructura económica y procedimientos técnicos utilizados. El territorio en el que se insertan constituye su contexto territorial, por lo que no sería adecuado considerar estos edificios como elementos aislados, sin analizar la relación con el entorno en el que se generaron. Por este motivo, se analizan las condiciones higrotérmicas ambientales de los secaderos para compararlas con las de confort humano y establecer relaciones y parámetros compatibles. Los ejemplos analizados de secaderos son todos de fábrica. El uso del ladrillo como módulo principal para la elaboración de un edificio, supone la consideración de un “grado cero” de todo el aparato constructivo y compositivo de la arquitectura. Dejar el ladrillo visto, supone hacer explícitos todos los procesos acumulativos. Este elemento mínimo, permite unas posibilidades enormemente abiertas, pero no absolutamente aleatorias, que definen su propia lógica combinatoria. La exigencia de sinceridad, característica de la arquitectura industrial, en la exposición de los materiales, exhibiéndolos en su propia naturaleza y en el modo real de ser utilizados, se hace patente en este tipo de construcción. Se realiza un estudio de permeabilidad en las fachadas de los secaderos, para determinar el grado de ventilación y su relación con la orientación, el patrón de celosía empleado y el volumen total. Este sistema de acondicionamiento climático específico, puede servir de recurso a otras construcciones, por lo que se podría trasladar el sistema constructivo y formal de los secaderos a otros usos, desde una doble vertiente: Arquitectura para la adaptación climática al entorno. Arquitectura como generadora de condiciones climáticas específicas, en el interior. La utilidad de los secaderos es fundamentalmente: proporcionar sombra, ventilación y un espacio cubierto, pero permeable en sus fachadas. La arquitectura industrial debe ser reconocida dentro del conjunto patrimonial, debido a sus características propias que permiten su diferenciación del resto de la arquitectura. Conocer la estructura productiva permite analizar correctamente estas construcciones, ya que el programa inicial es básico para entender la organización del espacio interior. Las fábricas no se situaron cerca de las zonas de producción del tabaco, excepto en dos casos: Cádiz y Palazuelo, en los que existen secaderos y campos de cultivo de hoja de tabaco en las áreas cercanas. La principal causa de esta separación es que el proceso de obtención de tabaco es un proceso dividido en dos fases principales: proceso primario y proceso secundario. En el proceso primario la hoja de tabaco se seca en los secaderos, en los que es determinante el clima, pero únicamente en el caso del secado del tabaco al aire. En el proceso secundario sin embargo, el tabaco llega previamente tratado a las fábricas, por lo que no influye el clima en esta parte del proceso. Esta razón determina que en las áreas climáticas donde se centra el estudio, haya zonas en las que existen fábrica y secaderos y otras en las que únicamente existe fábrica, o sólo secaderos. La localización de las fábricas atendía a razones de muy diferente índole, las más importantes fueron: geográficas, estratégicas, y políticas. En la mayoría de las fábricas la elección de la ciudad de emplazamiento estaba ligada a la recepción de la materia prima, que principalmente se hacía por vía marítima, o acuática (el caso de Sevilla), y por vía terrestre, utilizando como medio de transporte el ferrocarril. Sólo dos casos, de las antiguas fábricas, corresponden a razones políticas, son las dos únicas que no están en la costa: Madrid y Logroño. La de Madrid se construyó por centralidad política, y porque geográficamente ocupaba el punto central de todas las comunicaciones terrestres por carretera y ferrocarril. Muchas de las fábricas se situaron cercanas a las estaciones de ferrocarril. La de Logroño atendió, sin embargo, a razones políticas. Para finalizar, se realiza un estudio comparativo de las fábricas de Sevilla, Madrid y San Sebastián. Las razones que justifican esta elección son: - La de Sevilla fue históricamente la primera fábrica y la más importante. - La de Madrid fue la más importante a nivel administrativo, la sede de Tabacalera se instaló en la capital, y después de la de Sevilla, fue la que sirvió de modelo al resto de las fábricas. - La de San Sebastián era la más grande del Norte. Los análisis que se han realizado son de: volumen y superficies de patios, superficies de cubierta, permeabilidad o huecos en fachadas, orientación y soleamiento de patios, distribución espacial interior y organización, y evolución de usos. Podemos observar que en la mayoría de estas fábricas ha habido una transformación en el uso, pasando de ser edificios industriales a edificios culturales. Estas construcciones se pueden considerar como infraestructuras adaptables, por ser útiles, sostenibles y funcionales. ABSTRACT The Spanish industrial architecture of tobacco is represented by two construction types that correspond to the two phases of tobacco production: the drying sheds (bioclimatic constructions where the drying process takes place) and factories (centres where tobacco is processed after the drying process). The factories were distributed throughout the Spanish territory, preferably occupying coastal locations, although some of them were located elsewhere following political reasons. Most of the buildings inside city centres have suffered changes in their use, becoming cultural, social or representative centres. This thesis attempts the analysis of the constructive systems employed in tobacco industrial architecture, from drying sheds to factories. The drying sheds are an example of bioclimatic industrial architecture. The factories are a typology that have successfully adapted to new uses. Industrial architecture uses a language that follows the advances in industrialization, anticipating new materials and structures, and merging the complex relationships established among products, human beings, space and locations. These buildings were promoted extensively in the country. They are characterized by technological architectural sociological and landscaping innovations. They are considered as important examples of the evolution and the implementation of construction techniques (building materials and structures). They are also considered as examples of innovation in the building typology, in their economic structure and in the technologies that they have applied. The settings in which the drying sheds are placed have an important influence in them. They cannot be considered as isolated elements. Instead, there is a close relationship between drying sheds and the surroundings in which they are located. Drying sheds’ hygrotermal and environmental conditions are analyzed in this thesis to compare them with the values of human comfort and find suitable relationships and parameters. All the drying sheds that have been analyzed are constructed with brick. This implies a consideration of “zero degree” for both the construction and the composition of the architectural process. The detailing - entails making all the accumulative processes explicit as the brick walls are left exposed. This minimal component allows a wide range of options that are never random but based on the logic of the way in which it is combined. The “sincerity” in the exposition of material, displaying them in their very nature and showing how they are really used, is a basic characteristic of industrial architecture, and it is even more expressive in these types of buildings. The walls of the drying sheds undergo a permeability assessment in order to determine the degree of ventilation and orientation, the lattice pattern used and the overall volume. This specific conditioning system can serve as a resource for other buildings, and consequently, it could be transferred to other uses within a two-pronged approach: -Climatically adapted architecture that takes into account the surroundings. -Architecture as a generator of specific climatic conditions indoors. Drying sheds’ main purposes / aims deal with how to provide shade, ventilation and a covered space as well as permeability. The industrial architecture must be recognized as historical valuable buildings due to its intrinsic and distinctive characteristics. Knowing the productive structure, allow us to make a proper analysis of these buildings, since the basic aim, is to understand the spatial organization indoors. Factories did not come close to the tobacco production, with the exception of Cádiz and Palazuelo, where there are sheds and tobacco croplands nearby. The main reason for this separation is that the process of obtaining tobacco has two processes: the primary process and the secondary process. In the primary process tobacco leaves are left to dry. In the secondary process, previously manufactured tobacco allocated in the factories where the weather conditions are not important. This fact determines that in the climate areas where this study tales place there are some cases in which we can find both factories and drying sheds, and others where there are either factories or drying sheds only. The location of these factories met various demands, being the most outstanding the ones related to geographic, strategic and political reasons. In most factories the choice of its location was often linked to the incoming of raw goods, mainly delivered through waterways –it is the case of Seville,) and by land, using railways. The location of the factories was linked to political reasons in only two cases Madrid and Logroño, which are the only ones that are not placed near the coast. The one in Madrid was built due to its political centrality and because geographically speaking, it was the reference landmark of means of land and rail transports. Many factories, in fact, were settled nearby rail stations. For the factory in Logroño, only political reasons were taken into consideration. I should like to close by undertaking a comparative study of factories in Seville, Madrid and San Sebastian. There are a number of reasons to substantiate this choice: -The factory in Seville was historically speaking the first that was built and the most important one. -The factory in Madrid was the most important one administratively. This factory was the headquarters as well as being, after Seville, the one which provided a model for other factories. -The factory in San Sebastian is the biggest in the North of Spain. The analysis carried out are related to the volume of the buildings and the surface areas of the courtyards, the surface of the roofs, the permeability of the walls and the openings of the façade, the orientation and the sun exposure, the indoor spatial distribution and organization and evolution of the uses (formerly and currently) I observe that in most of these factories there has been a change in the use of the buildings, from industrial cultural purposes. These buildings can be considered as adaptable infrastructures based on a combination of architectural practicability, sustainability and functionality.
Resumo:
La respuesta higroscópica de la madera varía a lo largo de la dirección radial del árbol. El aumento de corta de ejemplares jóvenes y el uso de troncos de pequeños diámetros en la industria de los productos forestales, hacen preciso estudiar el comportamiento higroscópico tanto de la madera juvenil como de la madura. Su determinación proporciona información para comprender los mecanismos de sorción. Asimismo, la obtención de las propiedades termodinámicas de ambos tipos de madera facilita la modelización de procesos industriales como el secado o el encolado. En el presente trabajo, se ha comparado el comportamiento higroscópico y las propiedades termodinámicas de la madera juvenil y madura de Abies pinsapo Boissier, Abies alba Mill., Pinus canariensis C. Sm. ex DC., Pinus nigra Arnold, Pinus uncinata Mill. ex Mirb. y Pinus pinea L. Para este propósito se han utilizado las isotermas de sorción obtenidas mediante el método tradicional de sales saturadas descrito por COST Action E8 a 15, 35 y 50ºC en Abies pinsapo, Abies alba, Pinus nigra, Pinus uncinata y Pinus pinea, y a 35 y 50ºC en Pinus canariensis. Igualmente, se ha empleado el equipo dynamic vapor sorption (DVS) en la obtención de las isotermas de Pinus pinea a 35 y 50ºC. El ajuste de las curvas se ha realizado mediante el modelo Guggenheim, Anderson y de Boer-Dent (GAB), cumpliendo todas las muestras los criterios de aceptación establecidos. En el estudio de las isotermas se ha calculado el coeficiente y área de histéresis entre el proceso de adsorción y desorción para cada una de las muestras. Con el fin de comprender el comportamiento higroscópico experimentado por cada madera se ha determinado la composición química, espectros de infrarrojos (FTIR) y difractogramas de rayos X de cada una. Los parámetros termodinámicos - calor isostérico neto y total heat of wetting - se han obtenido a partir de las isotermas de sorción mediante el método de integración de la ecuación de Clausius-Clapeyron. Finalmente, se han comparado los datos obtenidos con el método tradicional de sales saturadas y con dynamic vapor sorption con el propósito de conocer la existencia de similitudes entre ambas metodologías. Los resultados mostraron que los puntos de equilibrio son, en la mayor parte de los casos, superiores en la madera madura frente a la juvenil, y por tanto las isotermas de la madera madura se encuentran siempre por encima de las de la juvenil, debido principalmente a la composición química. Respecto a las propiedades termodinámicas, se ha determinado que la energía involucrada en los procesos de sorción es superior en la madera madura que en la madera juvenil, siendo mayor en el proceso de desorción frente al de adsorción. En la comparación de las metodologías de sales saturadas y dynamic vapor sorption no se han detectado casi diferencias significativas en el proceso de adsorción, mientras que sí se han obtenido en el de desorción. ABSTRACT The hygroscopic response of wood varies throughout the radial direction of the tree. The longer cut of young trees and the use of small-diameter trunks in the forest product industry make it necessary to study the hygroscopic behaviour of both juvenile and mature wood. Determining this behaviour in both types of wood provides information for understanding the sorption mechanisms. Similarly, obtaining the thermodynamic properties of juvenile and mature wood facilitates modelling of industrial processes such as drying and bonding. In this study a comparison was made of the hygroscopic behaviour and thermodynamic properties of juvenile and mature wood of Abies pinsapo Boissier, Abies alba Mill., Pinus canariensis C. Sm. ex DC., Pinus nigra Arnold, Pinus uncinata Mill. ex Mirb. and Pinus pinea L. This was done by obtaining the sorption isotherms using the traditional saturated salt method described by COST Action E8 at 15, 35 and 50ºC in Abies pinsapo, Abies alba, Pinus nigra, Pinus uncinata and Pinus pinea, and at 35 and 50ºC in Pinus canariensis. In addition, dynamic vapour sorption (DVS) was used to obtain the isotherms of Pinus pinea at 35 and 50ºC. The curves were fitted using the Guggenheim, Anderson and de Boer- Dent (GAB) model and all samples met the established acceptance criteria. In the study of the isotherms, the hysteresis coefficient and area of the hysteresis loop between adsorption and desorption were calculated for each sample. To understand the hygroscopic behaviour of juvenile and mature wood, the chemical composition, infrared spectra (FTIR) and X-ray diffractograms of each type of wood were determined. The thermodynamic parameters - net isosteric heat and total heat of wetting - were obtained from the sorption isotherms by applying the integration method of the Clausius-Clapeyron equation. The data obtained using the traditional saturated salt method and with dynamic vapour sorption were compared to determine the similarities between the two methods. The results showed that the equilibrium points are greater in the mature wood than in the juvenile wood in most cases, and therefore the mature wood isotherms are always above the juvenile wood isotherms, mainly because of the chemical composition. As regards the thermodynamic properties, it was determined that the energy involved in the sorption processes is greater in the mature wood than in the juvenile wood, and is greater in the desorption process than in the adsorption process. On comparing the saturated salt and dynamic vapour sorption methods, almost no significant differences were detected in the adsorption process, but significant differences were obtained in the desorption process.
Resumo:
Mediante la elaboración de esta tesis doctoral se pretende diseñar un sistema para la realización del plan de autoprotección en industrias con riesgo de incendio dentro de un polígono industrial. Para desarrollar esta línea de investigación se realizará una investigación cartográfica así como un reconocimiento visual de las distintas empresas industriales, de actividades heterogéneas, seleccionadas por su emplazamiento y condiciones. Este tipo de industria es esencial en el sistema económico nacional, ya que dota de recursos y servicios al tejido social, además de tener una relación directa con la generación de riqueza y por tanto incide de forma positiva en el empleo de cualquier región. Estas razones y otras son determinantes para fomentar el progreso, si bien nunca a expensas de la seguridad de los empleados que hacen posible la línea de producción así como de los posibles viandantes que transcurran por la zona de impacto en caso de incidentes como por ejemplo un incendio que afecte a cualquiera de los locales y/o empresas que se emplazen en los denominados polígonos industriales. La tesis incluye trabajos experimentales de los que se extraen recomendaciones y conclusiones encaminadas a la optimización de la instrumentalización utilizada, las técnicas de observación, diseño y cálculo necesarias que determinarán el acercamiento al método propuesto para nuestra valoración del riesgo por incendio. Las posibles emergencias que pueden darse a nivel de industrias localizadas en polígonos industriales son diversas y numerosas. De todas ellas se elige abordar el caso de “incendio” por su casuística más numerosa. No obstante, la planificación orientada desde el prisma de la investigación de esta tesis puede estenderse a cualquier otro riesgo, lo que se aportará como líneas futuras de investigación. Las aproximaciones y etapas de los trabajos que forman parte de esta investigación se han integrado en cada capítulo y son las siguientes: En primer lugar un capítulo de Introducción, en el que se realiza una reflexión justificada de la elección del tema tratado, se formula la hipótesis de partida y se enumeran los distintos objetivos que se pretenden alcanzar. En el segundo capítulo, titulado Aspectos de la Protección Civil en la Constitución Española de 1978, se ha realizado un estudio exhaustivo de la Constitución en todo lo relacionado con el ámbito de la protección, haciendo especial énfasis en las distintas competencias según el tipo de administración que corresponda en cada caso, así como las obligaciones y deberes que corresponden a los ciudadanos en caso de catástrofe. Así mismo se analizan especialmente los casos de Guerra y el estado de Alarma. En el tercer capítulo, titulado Repuesta de las administraciones públicas ante emergencias colectivas, se trata de formular el adecuado sistema de repuesta que sería preciso para tratar de mitigar desastres y catástrofes. Se analizan los distintos sistemas de gestión de emergencias constatando en cada caso los pros y los contras de cada uno. Se pretende con ello servir de ayuda en la toma de decisiones de manera coherente y racional. El capítulo cuarto, denominado Planes Locales de emergencia. Estudio en las distintas administraciones, se ha pormenorizado en la presentación así como puesta en funcionamiento de los planes, comparando los datos obtenidos entre ellos para concluir en un punto informativo que nos lleva a la realidad de la planificación. Para la realización y desarrollo de los capítulos 5 y 6, llamados Análisis de la Norma Básica de Autoprotección y Métodos de evaluación del riesgo de Incendio, se estudia la normativa actual en autoprotección prestando atención a los antecedentes históricos así como a todas las figuras que intervienen en la misma. Se analizan los distintos métodos actuales para la valoración del riesgo por incendio en industrias. Este aspecto es de carácter imprescindible en la protección civil de los ciudadanos pero también es de especial importancia en las compañías aseguradoras. En el capítulo 7, Propuesta metodológica, se propone y justifica la necesidad de establecer una metodología de estudio para estos casos de riesgo por incendio en industrias para así, acortar el tiempo de respuesta de los servicios de emergencia hasta la zona, así como dotar de información imprescindible sobre el riesgo a trabajadores y transeúntes. El último capítulo se refiere a las Conclusiones, donde se establecen y enuncian una serie de conclusiones y resultados como consecuencia de la investigación desarrollada, para finalizar esta tesis doctoral enunciando posibles desarrollos y líneas de investigación futuros. ABSTRACT The development of this thesis is to design a system for the implementation of the plan of self-protection in industries with risk of fire in an industrial park. To develop this line of research will be done cartographic research as well as visual recognition of the distinct and heterogeneous industrial companies selected by its location and conditions. This type of industry is an essential part in the economic national system providing economic resources to society as well as with a direct relationship in unemployment. For this reason it is crucial to promote their progress, but never at the expense of the security of the employees that make the line of production as well as possible walkers that pass by the area of impact in the event of a fire affecting the company. The thesis includes experimental works which are extracted recommendations and conclusions aimed at optimization of used exploit, techniques of observation, design and calculation needed to determine the approach to the method proposed for our assessment of the risk from fire. The approaches and stages of works that are part of this research have been integrated into each chapter and are as follows: In the first chapter, holder introduction, perform a supporting reflection of the choice of the subject matter, is formulated the hypothesis of departure and listed the different objectives that are intended to achieve. In the second chapter, holder aspects of Civil Protection in the Spanish Constitution of 1978, examines an exhaustive study of the Constitution in everything related to the scope of protection. With an emphasis on individual skills according to the type of management with corresponding in each case, as well as the obligations and duties which correspond to citizens in the event of a catastrophe. Also analyzes the particular cases of war and the State of alarm. In the third chapter, holder public administrations collective emergency response, discussed trafficking in defining the proper system response that would be precise to address disasters and catastrophes. We discusses the different systems of emergency management in each case, we pretend the pros and cons of each. We tried that this serve as decision-making aid coherent and rational way. The fourth chapter is holder Local Emergency Plans (LEP). Study on the different administrations, has detailed in the presentation as well as operation of the LEP, comparing the data between them to conclude in an information point that leads us to the reality of planning. For the realization and development of chapters 5 and 6, holder Analysis of the basic rule of self-protection and fire risk assessment methods, paying attention to the historical background as well as all the figures involved in the same studies with the current rules of self-protection. The current methods for the estimation of the risk are analyzed by fire in industries. This aspect is essential in the civil protection of the citizens, but it is also of special importance for insurance companies. The seventh chapter, holder Methodological proposal, we propose and justifies the need to establish a methodology for these cases of risk by fire in industries. That shorts the response time of emergency services to the area, and provides essential information about the risk to workers and walkers. The last chapter refers to the Conclusions, laying down a series of results as a consequence of the previous chapters to complete billing possible developments and research future.
Resumo:
La calidad es uno de los principales retos de la construcción de software. En la Ingeniería del Software (IS) se considera a la usabilidad como un atributo de calidad. Al principio se veía a la usabilidad como un requisito no funcional.Se asumía que la usabilidad era una propiedad exclusiva de la presentación de la información.Se creía que separando la capa de presentación del resto, se podía desarrollar un producto software usable.Debido a la naturaleza del sistema y a las necesidades del usuario, a menudo se debe ir más lejos y no basta con tener en cuenta la presentación para obtener un software usable. La comunidad de la Interacción Personar Ordenador (IPO) ha propuesto recomendaciones para mejorar la usabilidad. Algunas de esas recomendaciones tienen impacto directo en la funcionalidad del producto software. En estudios recientes también se ha evaluado la relación entre la usabilidad y los requisitos funcionales. Estas investigaciones sugieren que la usabilidad debe ser tenida en cuenta desde las etapas iniciales de la construcción para evitar costosos cambios posteriores. La incorporación de las características de usabilidad agrega cierta complejidad al proceso de desarrollo. El presente trabajo evalúa la posibilidad de usar patrones para la incorporación de usabilidad en el desarrollo de un producto software. Concretamente se evalúan los siguientes patrones de programación de usabilidad (PPUs): Abort Operation,Progress Feedback y Preferences. Se utilizan unas Pautas de Desarrollo de Mecanismos de Usabilidad(PDMUs) para estos tres mecanismos de usabilidad. Estas pautas poponen patrones para la educción y posterior incorporación de la usabilidad en las distintas fases de la programación. En esta investigación se aborda el desarrollo de un producto software desde la deducción de requisitos hasta la implementación. En cada fase se incorporan los mecanismos de usabilidad de acuerdo a las recomendaciones de las PDMUs. Mediante el desarrollo de un software real se ha evaluado la factibilidad del uso de las PDMUs obteniendo como resultado propuestas de mejoras en estas pautas. Se evalúa asimismo el esfuerzo de incorporación de los mecanismos de usabilidad. Cada evaluación aporta datos que proporcionan una estimación del esfuerzo adicional requerido para incorporar cada mecanismo de usabilidad en el proceso de desarrollo del software.---ABSTRACT---Quality is a major challenge in software construction. Software engineers consider usability to be a quality attribute. Originally, usability was viewed as a nonr functional requirement. Usability was assumed to be simply an information presentation property. There was a belief that a usable software product could be developed by separating the presentation layer from the rest of the system. Depending on the system type and user needs, however, usability often runs deeper, and it is not enough to consider just presentation to build usable software. The humanrcomputer interaction (HCI) community put forward a list of recommendations to improve usability. Some such recommendations have a direct impact on software product functionality. Recent studies have also evaluated the relationship between usability and functional requirements. This research suggests that usability should be taken into account as of the early stages of software construction to prevent costly rework later on. The inclusion of usability features is an added complication to the development process. The research reported here evaluates the possibility of using patterns to incorporate usability into a software product. Specifically, it evaluates the following usability programming patterns (UPPs): Abort Operation, Progress Feedback and Preferences. Usability Mechanism Development Guides (USDG) are applied to these three usability mechanisms. These guides propose patterns for eliciting and later incorporating usability into the different software development phases, including programming. The reported research addresses the development of a software product from requirements elicitation through to implementation. Usability mechanisms are incorporated into each development phase in accordance with USDG recommendations. A real piece of software was developed to test the feasibility of using USDGs, outputting proposals for improving the guides. Each evaluation yields data providing an estimate of the additional workload required to incorporate each usability mechanism into the software development process.
Resumo:
La ciudadela habanera sigue un modelo arquitectónico ampliamente difundido en la América de habla hispana proveniente de la metrópoli, conocido popularmente como casa de patio, casa de vecindad, o mejor, casa de corredor. Como tal, constituyen una tipología peculiar fácilmente identificable, que nace como consecuencia de la necesidad de alojamiento de las clases populares de origen más humilde, a menudo también asociada a la inmigración, a partir de la revolución industrial y, por supuesto, no exclusiva de La Habana. Las ciudadelas Habaneras, como tipología específica, surgen en el siglo XIX, como consecuencia del proceso de aparición de las clases asalariadas, es decir, como respuesta lógica y práctica a una imperiosa demanda de obtener la máxima rentabilidad al suelo en una trama urbana compacta, teniendo en cuenta las especificidades del clima y la especulación urbana. Estas premisas establecen las características tipológicas generales de las ciudadelas: pequeñas habitaciones que delimitan un patio, elemento que constituye, además, el espacio de circulación, con servicios sanitarios y un área de cocina comunes para todos los inquilinos. A partir de 1938 queda prohibida la construcción de ciudadelas, pero ello no impide que su uso siga vigente, dadas las peculiares condiciones socio-políticas cubanas, que han hecho que, desde la revolución castrista, no se produzca la renovación del parque edilicio que ha tenido lugar en otros países. Las ciudadelas, como las casas de corredor españolas y las del resto de América, están íntimamente asociadas al concepto de infravivienda, con unas condiciones de habitabilidad que, si ya eran mínimas hace 150 años, actualmente son inaceptables. No obstante, el modelo continúa resultando atractivo, pues ofrece una posibilidad de relaciones personales y de sentido de la pertenencia que otros modelos urbanos no permiten. Es por ello que se intenta recuperar este modo de vida mediante la rehabilitación de las casas de corredor, eso sí, siguiendo criterios de espacio y salubridad acordes con la época y la normativa actual. Por todo ello, en esta tesis se profundiza en el conocimiento de las ciudadelas habaneras tanto desde el punto de vista histórico y tipológico como en el constructivo o patológico. En primer lugar se estudia su origen y evolución, así como sus similitudes y diferencias con sus homólogas en España e Hispanoamérica, para entender su morfología propia y poder decidir sobre la técnica de rehabilitación más apropiada. En segundo lugar, se describen y analizan sus características geométricas y morfológicas, con el objeto de determinar su correlación con el concepto de infravivienda y las relaciones espaciales patio/solar, para demostrar que su origen es fruto de la adaptación de un modelo universal, que deviene en una tipología específica de La Habana. En tercer lugar, se analizan los materiales y los sistemas constructivos y estructurales empleados en su origen, prácticamente intactos en la mayoría de los casos, demostrando así que en las ciudadelas se siguieron métodos similares y se optó por soluciones muy semejantes a las utilizadas en otras edificaciones habitacionales de carácter popular contemporáneas, por lo que el campo de aplicación de las soluciones deducidas de la documentación desarrollada en este trabajo es mucho más amplio que su mera adopción en las ciudadelas. En cuarto lugar, se realiza un estudio patológico de las fachadas de los edificios. Este análisis permitirá analizar con mayor rigor técnico las causas de las lesiones y diseñar técnicas de rehabilitación más adecuadas y duraderas, con un campo de aplicación también muy amplio, dado que las soluciones constructivas de los cerramientos son idénticas a las adoptadas prácticamente en la totalidad de las edificaciones de La Habana Vieja Por último, se elabora un estudio comparado de los resultados alcanzados en las ciudadelas habaneras con los obtenidos en los estudios previos realizados en las corralas madrileñas, para establecer correlaciones, similitudes y diferencias que permitan adaptar y aplicar las mismas o similares soluciones para casos semejantes en una y otra tipología.
Resumo:
En América Latina, y en Brasil en particular, las ocupaciones informales de la tierra urbana se tornaran un fenómeno generalizado en todas las ciudades, hecho que evidencio una serie de problemas urbanos y de ineficiencia en el proveimiento de los derechos básicos de los ciudadanos, principalmente el derecho a la morada digna, con eso, trajo la necesidad de priorización de política publicas curativas, como los programas de regularización urbana, cuyo objetivo es la inserción de las ocupaciones informales en la ciudad formal, con todos los impactos que eso genera: urbanísticos, legales, sociales y económicos. La ley federal intitulado Estatuto da Cidade (EC), reglamentada en 2001, es entendida como un avanzo jurídico por justamente intentar contrabalancear ese contexto, trayendo una serie de principios e instrumentos que buscan garantizar la función social de la propiedad y de la ciudad. Esa nueva lógica, en la teoría, tiene que ser la base de todas las políticas urbanas del país. Con eso, esa tesis tiene como objetivo evaluar si, realmente, los programas de regularización urbana desarrollados en Brasil cumplen con los dictámenes de dicha legislación. Para eso, fue elegido la metodología del estudio de caso, que fue desarrollado en la ciudad de Porto Alegre, capital del Rio Grande do Sul. Primero fue analizado el Estatuto da Cidade, para la definición de los principios de evaluación, luego, fue propuesto un sistema de evaluación, que fue aplicado en los dos casos estudiados: un anterior a la promulgación del EC, el Condominio dos Anjos, que serbio como parámetro referencial, y otro desarrollado tras la promulgación de dicha legislación, el Programa Integrado Entrada da Cidade (PIEC). Tras los análisis, se puede concluir que la legislación federal efectivamente no ha tenido el reflejo necesario, como conclusiones principales se puede citar: que la legislación municipal de Porto Alegre desde la década 90 ya tenía avances considerables, incluso algunos sirvieron de ejemplo en la elaboración del EC, luego, eso puede explicar el bajo impacto percibido; y que el principal fiscalizador y delineador de la política urbana es el financiador del programa, luego, muchas estrategias y dibujos proyectuales dependen de la línea de dicha financiación. ABSTRACT In Latin America, and Brazil in particular, informal urban land occupations pervasive be turned into all cities, a fact evidenced a series of urban problems and inefficiency to provide the basic rights of citizens, mainly the right to a decent housing, with that, brought the need for prioritization of public policy, such as urban regularization programs, aimed at the inclusion of informal occupations in the formal city, with all the impacts that generates: urban, legal, social and economic. Federal law entitled Estatuto da Cidade (EC), regulated in 2001, is understood as a legal advanced for just try to counterbalance this context, bringing a number of principles and instruments that seek to guarantee the social function of property and the city. This new logic, in theory, has to be the basis of all urban policies of the country. With that, this thesis aims to assess whether urban regularization programs developed in Brazil, actually, comply with the dictates of that legislation. For that, it was elected the methodology of the case study, which was developed in the city of Porto Alegre, capital of Rio Grande do Sul, Brazil. It was first analyzed the EC, for defining the principles for evaluation, then, was proposed an evaluation system, which was applied in two case studies: one before the promulgation of the EC, the Condominio dos Anjos, which used as a reference parameter, and another developed following the enactment of this legislation, the Program Integrate Entrada da Cidade (PIEC). After the analysis, it can be concluded that the federal legislation has not actually had the reflection necessary, main conclusions can be cited: the municipal legislation in Porto Alegre, since the early 90s, had considerable progress, including some served as an example in developing the EC, then, that may explain the low perceived impact; the principal auditor and eyeliner urban policy is the founder of the program, of course, many strategies and project drawings depend on the line of financing.
Resumo:
El objetivo de esta tesis es el estudio de la respuesta estructural de los gasoductos sometidas a solicitaciones estáticas y dinámicas, enfocando prioritariamente en la respuesta sísmica. Los gasoductos, como las tuberías en general, se utilizan principalmente para la transportación de fluidos, como agua, gas o petróleo, de ahí la importancia de que el diseño y la estructura se realicen adecuadamente. La tubería debe ser capaz de soportar tanto los efectos de cargas estáticas como las debidas al peso propio o de la presión de la tierra, así como los diferentes tipos de cargas dinámicas ocurridas durante un evento sísmico, como los debidos a las ondas o el desplazamiento de fallas. En la primera parte de la tesis se describen aspectos generales de la tubería y su uso, y se da una breve historia de uso en la industria y las redes de abastecimiento urbano. Aparte de otros aspectos, se discuten las ventajas y desventajas de los diferentes materiales de las tuberías. En la segunda parte de la tesis se desarrollan las ecuaciones de equilibrio de una sección transversal de la tubería bajo cargas estáticas, tales como la presión interna, peso propio, presión de la tierra y las cargas externas. Un número de diferentes combinaciones de carga es analizado por medio de programas codificados como Matlab, los cuales se han desarrollado específicamente para este propósito. Los resultados se comparan con los obtenidos en Ansys utilizando un código de elementos finitos. En la tercera parte se presenta la respuesta dinámica de las tuberías, que abarca los efectos de las ondas y los desplazamientos de fallas. Se presentan las características relevantes del suelo como las velocidades de ondas, así como los métodos para estimar el desplazamiento máximo de las fallas. Un estudio paramétrico se emplea para ilustrar la influencia de estos parámetros en la respuesta estructural de la tubería. Con este fin se han utilizado dos métodos, el Pseudoestático y el Simplificado. En la última parte de la tesis son desarrollados los modelos de elementos finitos que permiten simular adecuadamente el comportamiento no lineal del suelo y la tubería. Los resultados se comparan con los obtenidos por un método simplificado utilizado con frecuencia que fue propuesto por Kennedy en 1977. Estudios paramétricos se presentan con el fin de examinar la validez de las hipótesis del método de Kennedy. La tesis concluye con recomendaciones que indican en qué casos los resultados obtenidos por el método de Kennedy son conservadores y cuando es preferible utilizar modelos de elementos finitos para estimar la respuesta de las tuberías durante los terremotos. ABSTRACT The subject of this thesis is the study of the structural response of pipelines subjected to static and dynamic loads with special attention to seismic design loads. Pipelines, as pipes in general, are used primarily for the transportation of fluids like water, gas or oil, hence the importance of an adequate design and structural behaviour. The pipe must be able to withstand both the effects of static loads like those due to self-weight or earth pressure as well as the different types of dynamic loads during a seismic event like those due to wave passing or fault displacements. In the first part of the thesis general aspects of pipelines and their use are described and a brief history of their usage in industry and for urban supply networks is given. Apart from other aspects, the advantages and disadvantages of different pipe materials are discussed. In the second part of the thesis the equilibrium equations of a transverse section of the pipe under static loads such as internal pressure, self-weight, earth pressure and external loads are developed. A number of different load combinations is analysed by means of programs coded in Matlab that have been specifically developed for this purpose. The results are compared to those obtained with the commercial Finite Element code Ansys. In the third part the dynamic response of pipelines during earthquakes is presented, covering the effects of passing waves and fault displacements. Relevant soil characteristics like wave propagation velocities as well as methods to estimate the maximum fault displacements are presented. A parametric study is employed to illustrate the influences of these parameters on the structural response of the pipe. To this end two methods have been used, the Pseudostatic and the Simplified method. In the last part of the thesis Finite Element models are developed which allow to adequately simulate the nonlinear behaviour of the soil and the pipe. The results are compared to those obtained by a frequently used simplified method which was proposed by Kennedy in 1977. Parametric studies are presented in order to examine the validity of the hypotheses Kennedys’ method is based on. The thesis concludes with recommendations indicating in which cases the results obtained by Kennedy’s method are conservative and when it is preferable to use Finite Element models to estimate the response of pipelines during earthquakes.
Resumo:
Esta investigación se centra en determinar los grupos estratégicos (GE) de la industria bancaria venezolana y su influencia sobre el desempeño en el sector, así como su relación con la cobertura y la exclusión geográfica, durante el período 2008-2010. El test M de Box demostró que hubo inestabilidad financiera durante este lapso de tiempo, por ello se evaluó el comportamiento de los GE en cada año de estudio. La muestra se constituyó para el año 2008 por 58 entidades financieras, en el año 2009 por 52 entidades bancarias y para el período 2010 por sólo 39 instituciones. Antes de la aplicación del análisis cluster a las variables de alcance de la estrategia y recursos comprometidos, se realizó un análisis de componentes principales para determinar la relación entre estas variables y detectar valores atípicos; mientras que para distinguir las estrategias que caracterizaron a los grupos se siguió el procedimiento de uso común propuesto por Amel y Rhoades (1988), y se reforzó con la realización de las pruebas de contraste de medias o medianas ANOVA, Scheffé, Kruskal-Wallis y U de Mann-Whitney. Se empleó el paquete estadístico SPSS (versión 15.0) y el software de sistema de información geográfica Arcgis (versión 9.2) para lograr el objetivo propuesto. Los resultados indican que: 1) Al aplicar un procedimiento estadístico es posible detectar gradaciones en la implementación o evasión de las estrategias o del compromiso de recursos por parte de los GE, 2) En momentos de inestabilidad financiera los bancos cambian de estrategia y por tanto de GE, con el fin de obtener un buen desempeño, o al menos sobrevivir, 3) Sólo hubo evidencia parcial de la validez predictiva de los grupos estratégicos, 4) Al menos en Venezuela, los GE bancarios tienden a adoptar una estrategia de cobertura geográfica acorde con su estrategia financiera y, además que, los GE difieren en el nivel de Responsabilidad Social Empresarial en la lucha contra la exclusión financiera geográfica. ABSTRACT This research focuses on identifying strategic groups (SG) of the Venezuelan banking industry and its influence on the performance in the sector and its relationship with geographical coverage and exclusion, during the period 2008-2010. Box M test showed that there was financial instability during this period, so the behavior of SG in each year of study was evaluated. The sample was established for 2008 by 58 financial institutions, in 2009 by 52 banks and for the period 2010 to only 39 institutions. Before applying the cluster analysis variables scope of the strategy and committed resources, principal component analysis was performed to determine the relationship between these variables and outliers; while distinguishing strategies that characterized the group proposed by Amel and Rhoades (1988) commonly used procedure was followed and reinforced by the performance of tests contrast mean or median ANOVA, Scheffé, Kruskal-Wallis and Mann-Whitney. SPSS (version 15.0) and software Arcgis geographic information system (version 9.2) was used to achieve the objective. The results indicate that: 1) By applying a statistical procedure can detect gradations in implementation or avoidance strategies or resource commitment by SG, 2) In times of financial instability banks change their strategy and therefore SG, in order to get a good performance, or at least survive, 3) There was only partial evidence for the predictive validity of strategic groups, 4) At least in Venezuela, banking SG tend to adopt a strategy of geographical coverage according to their financial strategy and also that the SG differ in the level of corporate social responsibility in the fight against financial exclusion Geographic.
Resumo:
El magnesio y sus aleaciones representan un interesante campo de investigación dentro de la ingeniería de materiales debido a los retos que plantean tanto su conformabilidad como durabilidad. Las características físicas y mecánicas del magnesio y sus aleaciones los convierten en materiales de gran interés desde el punto de vista industrial al tratarse de uno de los materiales más abundantes y ligeros en un mundo en el que día a día los recursos y materias primas son más escasos por lo que el acceso a materiales abundantes y ligeros que permitan economizar el uso de energía cobrará mayor importancia en el futuro. En la coyuntura actual es por tanto necesario revisar procesos y procedimientos, investigando y tratando de ampliar desde este punto de vista si es posible mejorar los procedimientos de fabricación de los materiales disponibles actualmente o el desarrollo de nuevos, mejores que los anteriores, que permitan ayudar a la sostenibilidad del planeta. El magnesio, pese a ser un material muy abundante y relativamente barato, presenta una serie de inconvenientes que limitan de manera muy seria su aplicación industrial, su alta reactividad en presencia de oxígeno y su mal comportamiento frente a la corrosión así como limitaciones en su conformabilidad han estado limitando su uso y aplicaciones, los investigaciones dentro del campo de la metalurgia física de este material y el desarrollo de nuevas aleaciones han permitido su empleo en múltiples aplicaciones dentro de la industria aeroespacial, militar, automovilística, electrónica, deportiva y médica. La motivación para esta tesis doctoral ha sido tratar de aportar más luz sobre el comportamiento de una de las aleaciones comerciales base magnesio más empleadas, la AZ31B, tratando de modelizar como le afectan los procesos de soldadura y estudiando desde un punto de vista experimental como se ve modificada su microestructura, su comportamiento mecánico y su resistencia frente a la corrosión. Aunque en un principio se pensó en el empleo de métodos electroquímicos para el estudio de la corrosión de estos materiales, rápidamente se decidió prescindir de su uso dada la dificultad observada tanto durante los trabajos de investigación de esta Tesis como los encontrados por otros investigadores. Mediante microdurezas se han caracterizado mecánicamente las soldaduras de aleación de magnesio tipo AZ31 en función de diferentes materiales de aporte, observándose que el empleo de las aleaciones con mayor contenido de aluminio y zinc no contribuye a una mejora significativa de las propiedades mecánicas. Se han podido establecer correlaciones entre los modelos de simulación desarrollados y las microestructuras resultantes de los procesos reales de soldadura que permiten definir a priori que estructuras se van a obtener. De igual forma ha sido posible completar un estudio micrográfico y químico completo de las diferentes fases y microconstituyentes originados durante los procesos de soldadura, gracias a estos resultados se ha propuesto como hipótesis una explicación que justifica el comportamiento frente a la corrosión de estas aleaciones una vez soldadas. Los ensayos de corrosión realizados han permitido determinar correlaciones matemáticas que indican las velocidades de corrosión esperables de este tipo de aleaciones. Desde el punto de vista del diseño, los resultados obtenidos en este trabajo permitirán a otros investigadores y diseñadores tomar decisiones a la hora de decidir qué materiales de aporte emplear junto con las implicaciones que conllevan desde el punto de vista metalúrgico, mecánico o corrosivo las diferentes alternativas. Por último indicar que gracias al trabajo desarrollado se han definido modelos matemáticos para predecir el comportamiento frente a la corrosión de estas aleaciones, se han determinado las posibles causas y mecanismos por las que se gobierna la corrosión en la soldadura de chapas de aleación AZ31B y los motivos por los que se debe considerar el empleo de un material de aporte u otro. Los modelos de simulación desarrollados también han ayudado a comprender mejor la microestructura resultante de los procesos de soldadura y se han determinado que fases y microconstituyentes están presentes en las soldaduras de estas aleaciones. ABSTRACT Magnesium and its alloys represent and interesting research field in the material science due to the challenges of their fabrication and durability. The physical and mechanical properties of magnesium and its alloys make them a very interesting materials from and industrial point of view being one of the most abundant and lightest materials in a world in which day by day the lacking of resources and raw materials is more important, the use of light materials which allow to save energy will become more important in a near future. So that it is necessary to review processes and procedures, investigating and trying to improve current fabrication procedures and developing new ones, better than the former ones, in order to help with the sustainability of the planet. Although magnesium is a very common and relatively cheap material, it shows some inconveniences which limit in a major way their industrial application; its high reactivity in presence of oxygen, its poor corrosion resistance and some manufacturing problems had been limiting their use and applications, metallurgical investigations about this material and the development of new alloys have allowed its use in multiple applications in the aerospacial, military, automobile, electronics, sports and medical industry. The motivation for this thesis has been trying to clarify the behavior of one most used commercial base magnesium alloys, the AZ31, trying to modeling how its affected by thermal cycles of the welding process and studying from an experimental point of view how its microstructure is modified and how these modifications affect its mechanical behavior and corrosion resistance. Although at the beginning of this works it was though about the using of electrochemical techniques to evaluate the corrosion of these materials, rapidly it was decided not to use them because of the difficulty observed by during this research and by other investigators. The results obtained in this thesis have allowed to characterize mechanically AZ31 magnesium welding alloys considering different filler metals, according to this study using filler metals with a high content of aluminum and zinc does not represent an important improve It has been possible to establish correlations between simulation models and the resultant microstructures of the real melting processes originated during welding processes which allow to predict the structures which will be obtained after the welding. In addition to that it is possible to complete a complete micrographic and chemical analysis of the different phases and microconstituents created during welding, due to these results and hypothesis to explain the corrosion behavior of these welded alloys. Corrosion tests carried out have allowed defining mathematical correlations to predict corrosion rates of this kind of alloys. From a designing point of view, the results obtained in this work will let other investigators and designers to make decisions taking into account which implications have the different options from a metallurgical, mechanic and corrosive point of view. Finally we would like to indicate that thanks to this work it has been possible to define mathematical models to predict the corrosion behavior, the causes and the mechanism of this corrosion in the AZ31 welding sheets have been also determined and the reasons for using of one filler metal or another, the developed simulation models have also help to get a better understanding of the result microstructure determining the phases and the microconstituents present in the welding of this alloys.
Resumo:
La presente tesis analiza la mejora de la resistencia estructural ante vuelco de autocares enfocando dos vías de actuación: análisis y propuestas de requisitos reglamentarios a nivel europeo y la generación de herramientas que ayuden al diseño y a la verificación de estos requisitos. Los requisitos reglamentarios de resistencia estructural a vuelco contemplan la superestructura de los vehículos pero no para los asientos y sistemas de retención. La influencia de los pasajeros retenidos es superior a la incluida en reglamentación (Reg. 66.01) debiendo considerarse unida al vehículo un porcentaje de la masa de los pasajeros del 91% para cinturón de tres puntos y del 52% para cinturón subabdominal frente al 50% reglamentario para todos los casos. Se ha determinado la cinemática y dinámica del vuelco normativo en sus diferentes fases, formulando las energías en las fases iniciales (hasta el impacto contra el suelo) y determinando la fase final de deformación a través del análisis secuencial de ensayos de módulos reales. Se han determinado los esfuerzos para los asientos que se dividen en dos fases diferenciadas temporalmente: una primera debida a la deformación estructural y una segunda debida al esfuerzo del pasajero retenido que se produce en sentido opuesto (con una deceleración del pasajero en torno a 3.3 g). Se ha caracterizado a través de ensayos cuasi.estáticos el comportamiento de perfiles a flexión y de las uniones estructurales de las principales zonas del vehículo (piso, ventana y techo) verificándose la validez del comportamiento plástico teórico Kecman.García para perfiles de hasta 4 mm de espesor y caracterizando la resistencia y rigidez en la zona elástica de las uniones en función del tipo de refuerzo, materiales y perfiles (análisis de más de 180 probetas). Se ha definido un método de ensayo cuasi.estático para asientos ante esfuerzos de vuelco, ensayándose 19 butacas y determinándose que son resistentes (salvo las uniones a vehículo con pinzas), que son capaces de absorber hasta más de un 17% de la energía absorbida, aunque algunos necesitan optimización para llegar a contribuir en el mecanismo de deformación estructural. Se han generado modelos simplificados para introducir en los modelos barra.rótula plástica: un modelo combinado unión+rótula plástica (que incluye la zona de rigidez determinada en función del tipo de unión) para la superestructura y un modelo simplificado de muelles no.lineales para los asientos. Igualmente se ha generado la metodología de diseño a través de ensayos virtuales con modelos de detalle de elementos finitos tanto de las uniones como de los asientos. Se ha propuesto una metodología de diseño basada en obtener el “mecanismo óptimo de deformación estructural” (elevando la zona de deformación lateral a nivel de ventana y en pilar o en costilla en techo). Para ello se abren dos vías: diseño de la superestructura (selección de perfiles y generación de uniones resistentes) o combinación con asientos (que en lugar de solo resistir las cargas pueden llegar a modificar el mecanismo de deformación). Se ha propuesto una metodología de verificación alternativa al vuelco de vehículo completo que contempla el cálculo cuasi.estático con modelos simplificados barra.rótula plástica más el ensayo de una sección representativa con asientos y utillajes antropomórficos retenidos que permite validar el diseño de las uniones, determinar el porcentaje de energía que debe absorberse por deformación estructural (factor C) y verificar el propio asiento como sistema de retención. ABSTRACT This research analyzes the improvement of the structural strength of buses and coaches under rollover from two perspectives: regulatory requirements at European level and generation of tools that will help to the design and to the verification of requirements. European Regulations about rollover structural strength includes requirements for the superstructure of the vehicles but not about seats, anchorages and restraint systems. The influence of the retained passengers is higher than the one included currently in the Regulations (Reg. 66.01), being needed to consider a 91% of the passenger mass as rigidly joint to the vehicle (for 3 points’ belt, a 52% for 2 points’ belt) instead of the 50% included in the Regulation. Kinematic and dynamic of the normative rollover has been determined from testing of different sections, formulating the energies of the first phases (up to the first impact with the ground) and determining the last deformation phase through sequential analysis of movements and deformations. The efforts due to rollover over the seats have been established, being divided in two different temporal phases: a first one due to the structural deformation of the vehicle and a second one due to the effort of the restrained passenger being this second one in opposite sense (with a passenger deceleration around 3.3 g). From quasi.static testing, the behavior of the structural tubes under flexural loads, including the principal joints in the vehicle (floor, window and roof), the validity of the theoretical plastic behavior according Kecman.García theories have been verified up to 4 mm of thickness. Strength of the joints as well as the stiffness of the elastic zone has been determined in function of main parameters: type of reinforcement, materials and section of the tubes (more than 180 test specimens). It has been defined a quasi.static testing methodology to characterize the seats and restrain system behavior under rollover, testing 19 double seats and concluding that they are resistant (excepting clamping joints), that they can absorb more than a 17 of the absorbed energy, and that some of them need optimization to contribute in the structural deformation mechanism. It has been generated simplified MEF models, to analyze in a beam.plastic hinge model: a combined model joint+plastic hinge (including the stiffness depending on the type of joint) for the superstructure and a simplified model with non.lineal springs to represent the seats. It has been detailed methodologies for detailed design of joints and seats from virtual testing (MEF models). A design methodology based in the “optimized structural deformation mechanism” (increasing the height of deformation of the lateral up to window level) is proposed. Two possibilities are analyzed: design of the superstructure based on the selection of profiles and design of strength joints (were seats only resist the efforts and contribute in the energy absorption) or combination structure.seats, were seats contributes in the deformation mechanism. An alternative methodology to the rollover of a vehicle that includes the quasi.static calculation with simplified models “beam.joint+plastic hinge” plus the testing of a representative section of the vehicle including seats and anthropomorphic ballast restrained by the safety belts is presented. The test of the section allows validate the design of the joints, determine the percentage of energy to be absorbed by structural deformation (factor C) and verify the seat as a retention system.
Resumo:
Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
Las sociedades desarrolladas generan una gran cantidad de residuos, que necesitan una adecuada gestión. Esta problemática requiere, de este modo, una atención creciente por parte de la sociedad, debido a la necesidad de proteger el medio ambiente. En este sentido, los esfuerzos se centran en reducir al máximo la generación de residuos y buscar vías de aprovechamiento de aquellos que son inevitables, soluciones mucho más aconsejables desde el punto de vista técnico, ecológico y económico que su vertido o destrucción. Las industrias deben adoptar las medidas precisas para fomentar la reducción de estos residuos, desarrollar tecnologías limpias que permitan el ahorro de los recursos naturales que poseemos, y sobre todo buscar métodos de reutilización, reciclado, inertización y valorización de los residuos generados en su producción. La industria de la construcción es un campo muy receptivo para el desarrollo de nuevos materiales en los que incorporar estos residuos. La incorporación de diferentes residuos industriales en matrices cerámicas se plantea como una vía barata de fijar las diferentes especies metálicas presentes en transformación de rocas ornamentales, lodos de galvanización o metalúrgicos, etc. En todos los casos, la adición de estos residuos requiere su caracterización previa y la optimización de las condiciones de conformado y cocción en el caso de su incorporación a la arcilla cocida. Entre los residuos incorporados en materiales de construcción se encuentran las escorias de aluminio. La industria metalúrgica produce durante sus procesos de fusión diferentes tipos de escorias. Su reciclado es una de las líneas de interés para estas industrias. En el caso de las escorias de aluminio, su tratamiento inicial consiste en una recuperación del aluminio mediante métodos mecánicos seguido de un tratamiento químico, o plasma. Este método conduce a que la escoria final apenas contenga aluminio y sea rica en sales solubles lo que limita su almacenamiento en escombreras. La escoria es una mezcla de aluminio metal y productos no metálicos como óxidos, nitruros y carburos de aluminio, sales y otros óxidos metálicos. En este estudio se ha analizado la posibilidad de la adición de escorias de aluminio procedentes de la metalurgia secundaria en materiales de construcción, de forma que tras un procesado de las mismas permita la obtención de materiales compuestos de matriz cerámica. En la presente Tesis Doctoral se ha analizado la viabilidad técnica de la incorporación de las escorias de aluminio procedentes de la metalurgia secundaria en una matriz de arcilla cocida. Para ello se han aplicado diferentes tratamientos a la escoria y se han aplicado diferentes variables en su procesado como la energía de molienda o la temperatura de sinterizacion, además del contenido de escoria. Su compactación con agua entre el 5-10 %, secado y sinterización permite obtener piezas rectangulares de diverso tamaño. Desde el punto de vista del contenido de la escoria, se incorporó entre un 10 y 40% de escoria TT, es decir sometida una calcinación previa a 750ºC en aire. Los mejores resultados alcanzados corresponden a un contenido del 20% ESC TT, sinterizada a 980ºC, por cuanto altos contenidos en escoria condicen a piezas con corazón negro. Los productos obtenidos con la adición de 20% de escoria de aluminio a la arcilla, presentan una baja expansión tras sinterización, mejores propiedades físicas y mecánicas, y mayor conductividad térmica que los productos obtenidos con arcilla sin adiciones. Aumenta su densidad, disminuye su absorción y aumenta sus resistencias de flexión y compresión, al presentar una porosidad cerrada y una interacción escoria-matriz. En todos los casos se produce una exudación superficial de aluminio metálico, cuyo volumen está relacionado con la cantidad de escoria adicionada. Mediante la incorporación de este contenido de escoria, tras un tratamiento de disolución de sales y posterior calcinación (ESC TTQ), se mejoran las propiedades del material compuesto, no sólo sobre la de la escoria calcinada (ESC TT), sino también, sobre la escoria sin tratamiento (ESC). Si además, la adición del 20% de escoria añadida, está tratada, no sólo térmicamente sino también químicamente (ESC TTQ), éstas mejoran aún más las propiedades del material compuesto, siendo el producto más compacto, con menos poros, por lo que los valores de densidad son más elevados, menores son las absorciones y mayores resistencias de flexión y compresión, que los productos obtenidos con la adición de escoria sólo tratada térmicamente. Alcanzando valores de resistencias características a compresión del orden de 109 MPa. Los valores de conductividad térmica obtenidos también son mayores. Los ensayos tecnológicos con piezas de 160 x 30 x 5 mm y el material compuesto optimizado de arcilla+ 20%ESCTTQ, consistieron en la determinación de su expansión por humedad, eflorescencia y heladicidad, mostrando en general un mejor comportamiento que la arcilla sin adiciones. Así, se han obtenido nuevos materiales compuestos de matriz cerámica para la construcción, mejorando sus propiedades físicas, mecánicas y térmicas, utilizando escorias de aluminio procedentes de la metalurgia secundaria, como opción de valorización de estos residuos, evitando así, que se viertan a vertederos y contaminen el medio ambiente. ABSTRACT Developed societies generate a lot of waste, which need proper management. Thus, this problem requires increased attention from the society, due to the need to protect the environment. In this regard, efforts are focused on to minimize the generation of waste and find ways of taking advantage of those who are inevitable, much more advisable solutions from the technical, ecological and economic viewpoint to disposal or destruction. Industries should adopt precise measures to promote waste reduction, develop clean technologies that allow the saving of natural resources that we possess, and above all seek methods of reuse, recycling, recovery and valorisation of the waste generated in their production. The industry of the construction is a very receptive field for the development of new materials in which to incorporate these residues. The incorporation of different industrial residues in ceramic counterfoils appears as a cheap route to fix the different metallic present species in transformation of ornamental rocks, muds of galvanization or metallurgical, etc. In all the cases, the addition of these residues needs his previous characterization and the optimization of the conditions of conformed and of baking in case of his incorporation to the baked clay. Residues incorporated into construction materials include aluminium slag. The metallurgical industry produces during their fusion processes different types of slags. Recycling is one of the lines of interest to these industries. In the case of aluminium slag, their initial treatment consists of a recovery of the aluminium using mechanical methods followed by chemical treatment, or plasma. This method leads to that final slag just contains aluminium and is rich in soluble salts which limits storage in dumps. The slag is a mixture of aluminium metal and non-metallic such as oxides, nitrides and carbides of aluminium salts products and other metal oxides. The present Doctoral thesis has analysed the technical viability of the incorporation of aluminium slag from secondary Metallurgy in an array of baked clay. So they have been applied different treatments to the slag and have been applied different variables in its processing as the temperature of sintering, in addition to the content of slag or energy grinding. Its compaction with water between 5-10%, drying and sintering allows rectangular pieces of different size. From the point of view of the content of the slag, it is incorporated between 10 and 40% slag TT, that is to say, submitted a calcination prior to 750 ° C in air. The best results achieved correspond to 20% ESC TT, sintered at 980 ° C, as high levels of slag in accordance to pieces with black heart. The products obtained with the addition of 20% of slag from aluminium to clay, present a low expansion after sintering, better physical properties and mechanical, and higher thermal conductivity than the products obtained with clay, without addictions. Its density increases, decreases its absorption and increases its resistance to bending and compression, introducing a closed porosity and slag-matrix interaction. In all cases there is a superficial exudation of metallic aluminium, whose volume is related to the amount of slag added. By incorporating this content of slag, following a treatment of salt solution and subsequent calcination (ESC TTQ), are improved the properties of composite material not only on the calcined slag (ESC TT), but also in the slag without treatment (ESC). If the addition of 20% of slag added, is also treated, not only thermally but also chemically (ESC TTQ), they further improve the properties of the composite material, the product is more compact, less porous, so the values are higher density, minors are absorptions and greater resistance in bending and compression, to the products obtained with the addition of slag only treated thermally. Reaching values of compressive resistance characteristic of the order of 109 MPa. The thermal conductivity values obtained are also higher. Testing technology with pieces of 160 x 30 x 5 mm and optimized composite material of clay 20% ESCTTQ, consisted in the determination of its expansion by moisture, efflorescence and frost resistance, in general, showing a better performance than the clay without additions. Thus, we have obtained new ceramic matrix composite materials for construction, improving its physical, mechanical and thermal properties, using aluminium slag secondary metallurgy, as an option Valuation of these wastes, thus preventing them from being poured to landfills and pollute environment.
Resumo:
Los retos y oportunidades a los que se enfrentan las organizaciones y administraciones de las primeras décadas del siglo XXI se caracterizan por una serie de fuerzas perturbadoras como la globalización, el avance de las tecnologías emergentes y el desequilibrio económico, que están actuando como impulsores de la transformación del mercado. La acción conjunta de estos factores está obligando a todas las empresas industriales a tener que trabajar con mayores y más exigentes niveles de productividad planteándose continuamente como mejorar y lograr satisfacer los requerimientos de los clientes. De esta situación surge la necesidad de volver a plantearse de nuevo ¿quién es el cliente?, ¿qué valora el cliente? y ¿cómo se pueden generan beneficios sostenibles? La aplicación de esta reflexión a la industria naval militar marca los objetivos a los que esta tesis doctoral busca dar respuesta. El primer objetivo, de carácter general, consiste en la definición de un modelo de negocio sostenible para la industria naval militar del 2025 que se adapte a los requisitos del cliente y al nuevo escenario político, económico, social, tecnológico y ambiental que rodea esta industria. El segundo objetivo, consecuencia del modelo general, trata de desarrollar una metodología para ejecutar programas de apoyo al ciclo de vida del “buque militar”. La investigación se estructura en cuatro partes: en la primera se justifica, por un lado, la necesidad del cambio de modelo y por otro se identifican los factores estructurantes para la definición del modelo. La segunda parte revisa la literatura existente sobre uno de los aspectos básicos para el nuevo modelo, el concepto Producto-Servicio. La tercera parte se centra totalmente en la industria naval militar estudiando los aspectos concretos del sector y, en base al trabajo de campo realizado, se identifican los puntos que más valoran las Marinas de Guerra y como estas gestionan al buque militar durante todo su ciclo de vida. Por último se presentan los principios del modelo propuesto y se desarrollan los pilares básicos para la ejecución de proyectos de Apoyo al Ciclo de Vida (ACV). Como resultado de la investigación, el modelo propuesto para la industria naval militar se fundamenta en once principios: 1. El buque militar (producto de alto valor añadido) debe ser diseñado y construido en un astillero del país que desarrolla el programa de defensa. 2. El diseño tiene que estar orientado al valor para el cliente, es decir, se tiene que diseñar el buque militar para que cumpla su misión, eficaz y eficientemente, durante toda su vida operativa, asegurando la seguridad del buque y de las personas y protegiendo el medio ambiente de acuerdo con las regulaciones vigentes. 3. La empresa debe suministrar soluciones integrales de apoyo al ciclo de vida al producto. 4. Desarrollar y mantener las capacidades de integración de sistemas complejos para todo el ciclo de vida del buque militar. 5. Incorporar las tecnologías digitales al producto, a los procesos, a las personas y al propio modelo de negocio. 6. Desarrollar planes de actuación con el cliente domestico a largo plazo. Estos planes tienen que estar basados en tres premisas: (i) deben incluir el ciclo de vida completo, desde la fase de investigación y desarrollo hasta la retirada del buque del servicio; (ii) la demanda debe ser sofisticada, es decir las exigencias del cliente, tanto desde la óptica de producto como de eficiencia, “tiran” del contratista y (iii) permitir el mantenimiento del nivel tecnológico y de las capacidades industriales de la compañía a futuro y posicionarla para que pueda competir en el mercado de exportación. 7. Impulsar el sector militar de exportación mediante una mayor actividad comercial a nivel internacional. 8. Fomentar la multilocalización ya que representa una oportunidad de crecimiento y favorece la exportación posibilitando el suministro de soluciones integrales en el país destino. 9. Reforzar la diplomacia institucional como palanca para la exportación. 10. Potenciar el liderazgo tecnológico tanto en producto como en procesos con políticas activas de I + D+ i. 11. Reforzar la capacidad de financiación con soluciones innovadoras. El segundo objetivo de esta tesis se centra en el desarrollo de soluciones integrales de Apoyo al Ciclo de Vida (ACV). La metodología planteada trata de minimizar la brecha entre capacidades y necesidades a lo largo de la vida operativa del barco. Es decir, el objetivo principal de los programas de ACV es que la unidad conserve durante toda su vida operativa, en términos relativos a las tecnologías existentes, las capacidades equivalentes a las que tendrá cuando entre en servicio. Los ejes de actuación para conseguir que un programa de Apoyo al Ciclo de Vida cumpla su objetivo son: el diseño orientado al valor, la ingeniería de Apoyo al Ciclo de Vida, los proyectos de refresco de tecnología, el mantenimiento Inteligente y los contratos basados en prestaciones. ABSTRACT On the first decades of the 21st century, organizations and administrations face challenges and come across opportunities threatened by a number of disruptive forces such as globalization, the ever-changing emerging technologies and the economic imbalances acting as drivers of the market transformation. This combination of factors is forcing all industrial companies to have more and higher demanding productivity levels, while bearing always in mind how to improve and meet the customer’s requirements. In this situation, we need to question ourselves again: Who is the customer? What does the customer value? And how can we deliver sustainable economic benefits? Considering this matter in a military naval industry framework sets the goals that this thesis intends to achieve. The first general goal is the definition of a new sustainable business model for the 2025 naval industry, adapted to the customer requirements and the new political, economic, social, technological and environmental scenario. And the second goal that arises as a consequence of the general model develops a methodology to implement “warship” through life support programs. The research is divided in four parts: the first one justifies, on the one hand, the need to change the existing model and, on the other, identifies the model structural factors. On the second part, current literature regarding one of the key issues on the new model (the Product-Service concept) is reviewed. Based on field research, the third part focuses entirely on military shipbuilding, analyzing specific key aspects of this field and identifying which of them are valued the most by Navies and how they manage through life cycles of warships. Finally, the foundation of the proposed model is presented and also the basic grounds for implementing a Through Life Support (TLS) program are developed. As a result of this research, the proposed model for the naval industry is based on eleven (11) key principles: 1. The warship (a high added value product) must be designed and built in a shipyard at the country developing the defense program. 2. Design must be customer value oriented, i.e.warship must be designed to effectively fulfill its mission throughout its operational life, ensuring safety at the ship and for the people and protecting the environment in accordance with current regulations. 3. The industry has to provide integrated Through Life Support solutions. 4. Develop and maintain integrated complex systems capabilities for the entire warship life cycle. 5. Introduce the product, processes, people and business model itself to digital technologies. 6. Develop long-term action plans with the domestic customer. These plans must be based on three premises: (i) the complete life cycle must be included, starting from the research and development stage throughout the ship’s disposal; (ii) customer demand has to be sophisticated, i.e. customer requirements, both from the efficiency and product perspective, "attract" the contractor and (iii) technological level and manufacturing capabilities of the company in the future must be maintained and a competitive position on the export market has to be achieved. 7. Promote the military exporting sector through increased international business. 8. Develop contractor multi-location as it entails an opportunity for growth and promote export opportunities providing integrated solutions in the customer's country. 9. Strengthen institutional diplomacy as a lever for export. 10. Promote technological leadership in both product and processes with active R & D & I policies (Research & Development & Innovation) 11. Strengthen financing capacity through innovative solutions. The second goal of this thesis is focused on developing integrated Through Life Support (TLS) solutions. The proposed methodology tries to minimize the gap between needs and capabilities through the ship operational life. It means, the main TLS program objective is to maintain the ship’s performance and capabilities during operational life, in relative terms to current technologies, equivalent to those the ship had when it entered service. The main actions to fulfill the TLS program objectives are: value-oriented design, TLS engineering, technology updating projects, intelligent maintenance and performance based contracts.