239 resultados para fabricación
Resumo:
El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.
Resumo:
Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.
Resumo:
El empleo de preparados comerciales de levaduras secas inactivas (LSI) se ha generalizado en la industria enológica con el fin de mejorar los procesos tecnológicos, así como las características sensoriales y la eliminación de compuestos indeseables en los vinos. Estos preparados se obtienen por crecimiento de la levadura vínica Saccharomyces cerevisiae en un medio rico en azúcares, y posterior inactivación y secado para obtener un producto en forma de polvo. Su composición puede incluir una fracción soluble procedente del citoplasma de la levadura (péptidos, aminoácidos, proteínas) y una fracción insoluble compuesta principalmente por las paredes celulares. Dependiendo de su composición, los preparados de LSI están indicados para distintas aplicaciones (activadores de la fermentación alcohólica y maloláctica, mejorar el color y el aroma de los vinos, etc). Sin embargo, a pesar de que el empleo de preparados de LSI está cada vez más extendido en la industria enológica, existen pocos estudios científicos encaminados a conocer sus efectos en el vino así como a discernir su modo de acción. Por ello, se ha planteado esta Tesis Doctoral con el principal objetivo de caracterizar la composición química de algunos de los preparados comerciales de LSI que actualmente más se están empleando en la elaboración de los vinos, así como determinar su modo de acción y su efecto tanto en la composición como en las características organolépticas de los vinos. Para la caracterización de preparados de LSI, en primer lugar se ha estudiado la cesión de compuestos nitrogenados y polisacáridos a medios vínicos, así como las diferencias entre preparados procedentes de diferentes casas comerciales e indicados para diferentes aplicaciones durante la vinificación. Los resultados de este estudio mostraron diferencias en la cesión de estos compuestos dependiendo del tipo de vino al que van dirigidos y de la casa comercial de la procedencia. Así, los preparados indicados para la elaboración de vinos tintos liberan una mayor concentración de polisacáridos, que están asociados a una modulación de la astringencia y de la protección del color de los vinos tintos, comparado con los indicados para vinos blancos. Sin embargo en estos últimos se determinó una mayor cesión de aminoácidos libres. Posteriormente, se estudió el efecto de componentes específicos presentes en preparados de LSI en el crecimiento de distintas especies de bacterias lácticas del vino. Se obtuvieron extractos de diferente composición empleando la extracción con fluidos presurizados, y se ensayó su actividad en el crecimiento de cepas bacterianas pertenecientes a las especies Lactobacillus hilgardii, Pediococcus pentosaceus y Oenococcus oeni. Los resultados de este trabajo mostraron que los distintos componentes presentes en los preparados de LSI pueden ejercer un efecto estimulante o inhibidor en el crecimiento de las bacterias lácticas, que depende del tipo de compuesto, de su concentración y de la especie bacteriana a ensayar. Entre los compuestos responsables del efecto estimulante se encuentran tanto aminoácidos esenciales como monosacáridos libres, mientras que los ácidos grasos de cadena corta y larga así como compuestos heterocíclicos volátiles originados por la reacción de Maillard parecen estar directamente implicados en el efecto inhibidor observado. En la tercera parte de este trabajo, se ha evaluado el papel de los preparados comerciales de LSI en el aroma y en las características organolépticas de los vinos. Para ello, empleando vinos sintéticos, se estudiaron por un lado, el efecto que los componentes cedidos por los preparados de LSI podrían tener en la volatilidad de compuestos del aroma ya presentes en el vino, y por otro lado, en la posible cesión al vino de compuestos odorantes presentes en los preparados y originados durante su fabricación. Los resultados de estos estudios pusieron de manifiesto que los preparados de LSI pueden modificar la volatilidad de compuestos del aroma del vino, dependiendo principalmente de las características físico-químicas del compuesto del aroma, del tiempo de permanencia del preparado en el vino y del tipo de preparado de LSI. Por otro lado, gracias al empleo de diferentes técnicas de extracción combinadas, la extracción con fluidos presurizados (PLE) y microextracción en fase sólida en el espacio de cabeza (HS-SPME) y posterior análisis por GO-MS, se caracterizó el perfil volátil de un preparado de LSI representativo del resto de los estudiados y se comprobó que estaba formado tanto por componentes procedentes de la levadura, como ácidos grasos de cadena corta y larga, así como por compuestos volátiles originados durante las etapas de fabricación de los preparados y resultantes de la reacción de Maillard. Se determinó a su vez, que algunos de estos compuestos volátiles, pueden ser cedidos tanto a medios vínicos, como a vinos reales. Concretamente, se comprobó que los preparados indicados para vinificación en blanco liberan una menor concentración de compuestos volátiles, y especialmente, de productos de la reacción de Maillard, que los indicados para vinificación en tinto. Estos compuestos, y principalmente los pertenecientes al grupo de las pirazinas, podrían modificar el perfil sensorial de los vinos, ya que son compuestos con, en general, bajos umbrales de percepción. Para intentar eliminar estos compuestos de los preparados, es decir, para su desodorización, en esta parte del trabajo, también se desarrolló una metodología basada en la extracción con CO2 supercrítico, que permitió la eliminación selectiva de este tipo de compuestos sin provocar modificaciones en su composición no volátil. Debido a la cantidad de preparados de LSI ricos en glutatión (GSH) disponibles en el mercado para mejorar las características sensoriales de los vinos, se estudió la cesión de este compuesto a medios vínicos. Para ello, se puso a punto una metodología que permitiera la cuantificación del GSH en sus diferentes formas (reducido y total), en vinos sintéticos y reales. El método se aplicó para cuantificar la cantidad de GSH aportada por los LSI a los vinos. Los resultados mostraron que los preparados de LSI indicados para vinificación en blanco y rosado liberaron, inmediatamente tras su adición a medios vínicos sintéticos, ♯y-glutamil-cisteína y GSH principalmente en su forma reducida a mayores concentraciones que los preparados indicados para otras aplicaciones. Por otro lado, se aislaron las fracciones de peso molecular <3000 Da de preparados de LSI y se emplearon para suplementar vinos sintéticos aromatizados con terpenos y sometidos a condiciones de envejecimiento acelerado. Los resultados revelaron una reducción en la oxidación por parte de las fracciones aisladas tanto de preparados de LSI ricos en glutatión como de preparados empleados como nutrientes de fermentación. Esta reducción era incluso mayor que cuando se empleaba el glutatión comercial, lo que indicaba la presencia de otros compuestos con propiedades antioxidantes. Finalmente, para conocer el efecto de los preparados de LSI a escala de bodega, se elaboraron a escala industrial dos tipos de vinos, con y sin la adición de un preparado de LSI rico en GSH, a escala industrial. En estos vinos, se determino el contenido en glutatión, y la evolución del color y de la composición fenólica y volátil durante la vinificación y a lo largo del envejecimiento en botella. Los resultados de este trabajo mostraron la capacidad del preparado de LSI de ceder glutatión en su forma reducida, aunque esté es rápidamente oxidado durante la fermentación alcohólica. Sin embargo, se comprobó que los vinos elaborados con el preparado presentaron mayor estabilidad de color y aroma a lo largo del envejecimiento en botella. De hecho, a los 9 meses de envejecimiento, se encontraron diferencias sensoriales entre los vinos con y sin el preparado. Sin embargo, estas diferencias sensoriales no fueron suficientes para que en el estudio de preferencia que se llevó a cabo con los mismos vinos, los consumidores mostraran preferencia hacia los vinos elaborados con el preparado de LSI.
Understanding and improving the chemical vapor deposition process for solar grade silicon production
Resumo:
Esta Tesis Doctoral se centra en la investigación del proceso de producción de polisilicio para aplicaciones fotovoltaicas (FV) por la vía química; mediante procesos de depósito en fase vapor (CVD). El polisilicio para la industria FV recibe el nombre de silicio de grado solar (SoG Si). Por un lado, el proceso que domina hoy en día la producción de SoG Si está basado en la síntesis, destilación y descomposición de triclorosilano (TCS) en un reactor CVD -denominado reactor Siemens-. El material obtenido mediante este proceso es de muy alta pureza, pero a costa de un elevado consumo energético. Así, para alcanzar los dos principales objetivos de la industria FV basada en silicio, bajos costes de producción y bajo tiempo de retorno de la energía invertida en su fabricación, es esencial disminuir el consumo energético de los reactores Siemens. Por otro lado, una alternativa al proceso Siemens considera la descomposición de monosilano (MS) en un reactor de lecho fluidizado (FBR). Este proceso alternativo tiene un consumo energético mucho menor que el de un reactor Siemens, si bien la calidad del material resultante es también menor; pero ésta puede ser suficiente para la industria FV. A día de hoy los FBR deben aún abordar una serie de retos para que su menor consumo energético sea una ventaja suficiente comparada con otras desventajas de estos reactores. En resumen, la investigación desarrollada se centra en el proceso de depósito de polysilicio por CVD a partir de TCS -reactor Siemens-; pero también se investiga el proceso de producción de SoG Si en los FBR exponiendo las fortalezas y debilidades de esta alternativa. Para poder profundizar en el conocimiento del proceso CVD para la producción de polisilicio es clave el conocimiento de las reacciones químicas fundamentales y cómo éstas influencian la calidad del producto resultante, al mismo tiempo que comprender los fenómenos responsables del consumo energético. Por medio de un reactor Siemens de laboratorio en el que se llevan a cabo un elevado número de experimentos de depósito de polisilicio de forma satisfactoria se adquiere el conocimiento previamente descrito. Se pone de manifiesto la complejidad de los reactores CVD y de los problemas asociados a la pérdidas de calor de estos procesos. Se identifican las contribuciones a las pérdidas de calor de los reactores CVD, éstas pérdidas de calor son debidas principalmente a los fenómenos de radiación y, conducción y convección vía gases. En el caso de los reactores Siemens el fenómeno que contribuye en mayor medida al alto consumo energético son las pérdidas de calor por radiación, mientras que en los FBRs tanto la radiación como el calor transferido por transporte másico contribuyen de forma importante. Se desarrolla un modelo teórico integral para el cálculo de las pérdidas de calor en reactores Siemens. Este modelo está formado a su vez por un modelo para la evaluación de las pérdidas de calor por radiación y modelos para la evaluación de las pérdidas de calor por conducción y convección vía gases. Se ponen de manifiesto una serie de limitaciones del modelo de pérdidas de calor por radiación, y se desarrollan una serie de modificaciones que mejoran el modelo previo. El modelo integral se valida por medio un reactor Siemens de laboratorio, y una vez validado se presenta su extrapolación a la escala industrial. El proceso de conversión de TCS y MS a polisilicio se investiga mediante modelos de fluidodinámica computacional (CFD). Se desarrollan modelados CFD para un reactor Siemens de laboratorio y para un prototipo FBR. Los resultados obtenidos mediante simulación son comparados, en ambos casos, con resultados experimentales. Los modelos desarrollados se convierten en herramientas para la identificación de aquellos parámetros que tienen mayor influencia en los procesos CVD. En el caso del reactor Siemens, ambos modelos -el modelo integral y el modelado CFD permiten el estudio de los parámetros que afectan en mayor medida al elevado consumo energético, y mediante su análisis se sugieren modificaciones para este tipo de reactores que se traducirían en un menor número de kilovatios-hora consumidos por kilogramo de silicio producido. Para el caso del FBR, el modelado CFD permite analizar el efecto de una serie de parámetros sobre la distribución de temperaturas en el lecho fluidizado; y dicha distribución de temperaturas está directamente relacionada con los principales retos de este tipo de reactores. Por último, existen nuevos conceptos de depósito de polisilicio; éstos se aprovechan de la ventaja teórica de un mayor volumen depositado por unidad de tiempo -cuando una mayor superficie de depósito está disponible- con el objetivo de reducir la energía consumida por los reactores Siemens. Estos conceptos se exploran mediante cálculos teóricos y pruebas en el reactor Siemens de laboratorio. ABSTRACT This Doctoral Thesis comprises research on polysilicon production for photovoltaic (PV) applications through the chemical route: chemical vapor deposition (CVD) process. PV polysilicon is named solar grade silicon (SoG Si). On the one hand, the besetting CVD process for SoG Si production is based on the synthesis, distillation, and decomposition of thriclorosilane (TCS) in the so called Siemens reactor; high purity silicon is obtained at the expense of high energy consumption. Thus, lowering the energy consumption of the Siemens process is essential to achieve the two wider objectives for silicon-based PV technology: low production cost and low energy payback time. On the other hand, a valuable variation of this process considers the use of monosilane (MS) in a fluidized bed reactor (FBR); lower output material quality is obtained but it may fulfil the requirements for the PV industry. FBRs demand lower energy consumption than Siemens reactors but further research is necessary to address the actual challenges of these reactors. In short, this work is centered in polysilicon CVD process from TCS -Siemens reactor-; but it also offers insights on the strengths and weaknesses of the FBR for SoG Si production. In order to aid further development in polysilicon CVD is key the understanding of the fundamental reactions and how they influence the product quality, at the same time as to comprehend the phenomena responsible for the energy consumption. Experiments conducted in a laboratory Siemens reactor prove the satisfactory operation of the prototype reactor, and allow to acquire the knowledge that has been described. Complexity of the CVD reactors is stated and the heat loss problem associated with polysilicon CVD is addressed. All contributions to the energy consumption of Siemens reactors and FBRs are put forward; these phenomena are radiation and, conduction and convection via gases heat loss. In a Siemens reactor the major contributor to the energy consumption is radiation heat loss; in case of FBRs radiation and heat transfer due to mass transport are both important contributors. Theoretical models for radiation, conduction and convection heat loss in a Siemens reactor are developed; shaping a comprehensive theoretical model for heat loss in Siemens reactors. Limitations of the radiation heat loss model are put forward, and a novel contribution to the existing model is developed. The comprehensive model for heat loss is validated through a laboratory Siemens reactor, and results are scaled to industrial reactors. The process of conversion of TCS and MS gases to solid polysilicon is investigated by means of computational fluid-dynamics models. CFD models for a laboratory Siemens reactor and a FBR prototype are developed. Simulated results for both CVD prototypes are compared with experimental data. The developed models are used as a tool to investigate the parameters that more strongly influence both processes. For the Siemens reactors, both, the comprehensive theoretical model and the CFD model allow to identify the parameters responsible for the great power consumption, and thus, suggest some modifications that could decrease the ratio kilowatts-hour per kilogram of silicon produced. For the FBR, the CFD model allows to explore the effect of a number of parameters on the thermal distribution of the fluidized bed; that is the main actual challenge of these type of reactors. Finally, there exist new deposition surface concepts that take advantage of higher volume deposited per time unit -when higher deposition area is available- trying to reduce the high energy consumption of the Siemens reactors. These novel concepts are explored by means of theoretical calculations and tests in the laboratory Siemens prototype.
Resumo:
En este trabajo de investigación que se presenta para optar al grado de Doctor, se analizan y estudian los materiales que conforman las viviendas de mampostería de arenisca “Piedra de Ojo” del casco histórico de Maracaibo, Venezuela, construidas en el siglo XIX. No existe una bibliografía descriptiva técnico-constructiva del sistema constructivo, por lo que esta tesis complementa la escasa descripción estilística existente donde apenas se mencionan algunos materiales de construcción. Definido el marco histórico y las manzanas del área en donde se encontraban las viviendas preseleccionadas a estudiar, en la visita de campo se seleccionaron 12 que se encontraban en estado de deterioro, y que permitieron recolectar las muestras más fácilmente. Para realizar la caracterización y comportamientos de los diferentes materiales utilizados: piedra y morteros en los cerramientos, maderas en armaduras de tejados, techos y carpintería de puertas y ventanas, cerámicos en muros y acabados, etc. Para complementar lo antes dicho se ha dividido esta tesis en seis capítulos: En el capítulo I se desarrolla el estado del arte a nivel nacional e internacional de trabajos de investigación, similares. Se aborda la memoria histórica, que es una reseña de la evolución de la vivienda en la ciudad de Maracaibo. En el capítulo II se describe la metodología empleada en la tesis, de acuerdo a los objetivos, tanto generales como específicos de la investigación. Que ha cubierto diferentes frentes: consulta bibliográfica, levantamiento planimétrico, toma de muestras, análisis de visu, caracterización físico-química y correlación de resultados. Se ha desarrollado el trabajo tanto in situ como en laboratorio y despacho. El capítulo III presenta la caracterización de la arenisca “Piedra de Ojo”, se desarrolla: la descripción geológica y caracterización petrológica. Se reseñan los ensayos realizados en laboratorio como: caracterización de visu, caracterización petrográfica, estudio petrográfico por microcopia óptica de trasmisión, estudio petrográfico por microcopia electrónica de barrido, microscopia electrónica de barrido en modo electrones secundarios (SSE) y microscopia electrónica de barrido en modo electrones retrodispersados. También las propiedades escalares de los mampuestos y los siguientes valores: densidades, porosidades y resistencia mecánicas, entre otros. En el capítulo IV se analizan las características de los morteros aplicados en las viviendas, y la patología o lesiones que presentan. Se clasifican en tres tipos: mortero de junta o asiento, de enfoscado y revoco. Se documenta la realización de los ensayos físicos y químicos, resistencia mecánica y de granulometría; se explican sus componentes principales: conglomerante de cal, áridos y aditivos y la tecnología de fabricación, así como las características físicas, hídricas, químicas y granulométricas. El capítulo V, contiene las aplicaciones constructivas de los materiales de albañilería, Se describen otros elementos de la vivienda como; cimentaciones, muros mixtos, molduras, apliques y pinturas y finalmente pavimentos. Y en el capítulo VI se analizan las especies de madera más representativas usadas en las armaduras de las cubiertas, así como los elementos de cubrición. De igual forma se describe la carpintería de puertas y ventanas, así como sus dinteles o cargaderos de madera y se realiza la identificación anatómica, las propiedades físicas y mecánicas de las utilizadas. Entre los resultados y conclusiones se determinó que el 90% de los materiales utilizados en su construcción proceden de zonas cercanas a la construcción de la vivienda, como la formación El Milagro convertida en cantera de piedra y que el resto de los materiales provenían de la Isla de Toas y de la exportación de las islas del Caribe y de Europa como el cemento. El principal aporte de esta investigación es el análisis técnico constructivo y la caracterización física, mecánica y química de los materiales de la vivienda, con el fin de que dicha información sea usada para definir los materiales nuevos a utilizar en las restauraciones de las viviendas y en futuras líneas de investigación. ABSTRACT In this research paper submitted to opt to the degree of Doctor, the materials that make the “Piedra de Ojo” sandstone masonry houses of the historical center of Maracaibo, Venezuela, built in the XIX century, are analyzed and studied. There exists no technical-constructive descriptive literature of the constructive system, so this thesis complements the very limited existing stylistic description, where barely some construction materials are mentioned. With the historical context and the blocks of the area where the preselected houses to be studied being defined, 12 of these houses that were in a state of decay (deterioration) were selected and this condition allowed to collect samples more easily, in order to carry out the characterization and behavior of the different materials used: stone and mortars in the walls, wood trusses in roofs, ceilings and woodwork of doors and windows, walls and ceramic finishes, etc. To complement the foregoing, this thesis has been divided in six chapters: In Chapter I, the state of art at national and international levels of similar research is developed, which is a review of the evolution of housing in the city of Maracaibo. In Chapter II, the methodology used in the thesis is described, according to the research’s objectives, general and specific ones, which have covered several fronts: literature survey, planimetric survey, sampling, visu analysis, physical-chemical characterization and correlation of results. Chapter III presents the characterization of the “Piedra de Ojo” sandstone; geological description and petrologic characterization are developed. Essays performed in the laboratory are reviewed, such as: visu characterization, petrographic characaterization, petrographic study by optical microscopy of transmission, petrographic study by electronic scanning microscopy in secondary electron mode (SSE) and electron microscopy scaning by backscattered electron mode. Also scalar properties of the masonry and the following: density, porosity and mechanical resistance, among others. In Chapter IV, characteristics of the mortars used in the houses are analyzed and pathology or damages are presented. They are classified into three types: grout, cement render and plaster. Physical and chemical testing, mechanical strength and grain size (granulometric) is documented; its main components are explained: lime binder, aggregates and additives and manufacturing technology as well as the physical, water, chemical and granulometric characteristics. Chapter V contains the constructive applications of masonry materials. Other housing elements are described, such as; foundations, mixed walls, moldings, wall paintings and finally floorings (pavements). And in chapter VI the most representative species of wood used in the overhead fixtures and cover elements are analyzed. Likewise, woodwork of doors and windows and their wooden lintels or landings are described; anatomical identification and physical and mechanical properties of the ones used is made. The results and conclusions determined that 90% of the materials used in its construction came from areas near the construction of housing, such as El Milagro formation, converted into stone quarry and other materials came from the Toas Island and from the export of the Caribbean islands and Europe, such as cement. The main contribution of this research is the constructive technical analysis and physical, mechanical and chemical characterization of the materials of the houses, in order that such information is used to define the new materials to be used in the housing restoration and future research lines.
Resumo:
La composición del purín varía en función de la dieta, los procesos fisiológicos y bioquímicos en el animal y el manejo, entre otros. La composición del purín es determinante en las emisiones de metano (CH 4 ) y amoniaco (NH 3 ) (Moset y col., 2012) y condiciona su aptitud para ser usado como fertilizante o como sustrato para la producción de biogás. Las materias primas comúnmente utilizadas en la fabricación de piensos poseen valores variables de nitrógeno ligado a fibra (N- FND) y determinadas combinaciones de ingredientes modifican de manera considerable la concentración de N-FND en los piensos. La ingesta de diferentes cantidades de N-FND puede dar lugar a cambios en la composición del purín y en su potencial de producción de NH 3 ,CH 4 y biogás. El objetivo del presente estudio fue evaluar los efectos de la modificación de la calidad del nitrógeno (N) en piensos de cebo en cerdos y sus implicancias en la producción de NH 3, CH 4 y biogás a partir del purín. Este ensayo es parte del proyecto GasPorc (AGL2011-30023-C03) que evalúa la relación que existe entre la composición de la dieta, características del purín y su potencial de producción de gases y valor fertilizante.
Resumo:
A raíz de la aparición de los procesadores dotados de varios “cores”, la programación paralela, un concepto que, por otra parte no era nada nuevo y se conocía desde hace décadas, sufrió un nuevo impulso, pues se creía que se podía superar el techo tecnológico que había estado limitando el rendimiento de esta programación durante años. Este impulso se ha ido manteniendo hasta la actualidad, movido por la necesidad de sistemas cada vez más potentes y gracias al abaratamiento de los costes de fabricación. Esta tendencia ha motivado la aparición de nuevo software y lenguajes con componentes orientados precisamente al campo de la programación paralela. Este es el caso del lenguaje Go, desarrollado por Google y lanzado en 2009. Este lenguaje se basa en modelos de concurrencia que lo hacen muy adecuados para abordar desarrollos de naturaleza paralela. Sin embargo, la programación paralela es un campo complejo y heterogéneo, y los programadores son reticentes a utilizar herramientas nuevas, en beneficio de aquellas que ya conocen y les son familiares. Un buen ejemplo son aquellas implementaciones de lenguajes conocidos, pero orientadas a programación paralela, y que siguen las directrices de un estándar ampliamente reconocido y aceptado. Este es el caso del estándar OpenMP, un Interfaz de Programación de Aplicaciones (API) flexible, portable y escalable, orientado a la programación paralela multiproceso en arquitecturas multi-core o multinucleo. Dicho estándar posee actualmente implementaciones en los lenguajes C, C++ y Fortran. Este proyecto nace como un intento de aunar ambos conceptos: un lenguaje emergente con interesantes posibilidades en el campo de la programación paralela, y un estándar reputado y ampliamente extendido, con el que los programadores se encuentran familiarizados. El objetivo principal es el desarrollo de un conjunto de librerías del sistema (que engloben directivas de compilación o pragmas, librerías de ejecución y variables de entorno), soportadas por las características y los modelos de concurrencia propios de Go; y que añadan funcionalidades propias del estándar OpenMP. La idea es añadir funcionalidades que permitan programar en lenguaje Go utilizando la sintaxis que OpenMP proporciona para otros lenguajes, como Fortan y C/C++ (concretamente, similar a esta última), y, de esta forma, dotar al usuario de Go de herramientas para programar estructuras de procesamiento paralelo de forma sencilla y transparente, de la misma manera que lo haría utilizando C/C++.---ABSTRACT---As a result of the appearance of processors equipped with multiple "cores ", parallel programming, a concept which, moreover, it was not new and it was known for decades, suffered a new impulse, because it was believed they could overcome the technological ceiling had been limiting the performance of this program for years. This impulse has been maintained until today, driven by the need for ever more powerful systems and thanks to the decrease in manufacturing costs. This trend has led to the emergence of new software and languages with components guided specifically to the field of parallel programming. This is the case of Go language, developed by Google and released in 2009. This language is based on concurrency models that make it well suited to tackle developments in parallel nature. However, parallel programming is a complex and heterogeneous field, and developers are reluctant to use new tools to benefit those who already know and are familiar. A good example are those implementations from well-known languages, but parallel programming oriented, and witch follow the guidelines of a standard widely recognized and accepted. This is the case of the OpenMP standard, an application programming interface (API), flexible, portable and scalable, parallel programming oriented, and designed for multi-core architectures. This standard currently has implementations in C, C ++ and Fortran. This project was born as an attempt to combine two concepts: an emerging language, with interesting possibilities in the field of parallel programming, and a reputed and widespread standard, with which programmers are familiar with. The main objective is to develop a set of system libraries (which includes compiler directives or pragmas, runtime libraries and environment variables), supported by the characteristics and concurrency patterns of Go; and that add custom features from the OpenMP standard. The idea is to add features that allow programming in Go language using the syntax OpenMP provides for other languages, like Fortran and C / C ++ (specifically, similar to the latter ), and, in this way, provide Go users with tools for programming parallel structures easily and, in the same way they would using C / C ++.
Resumo:
Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.
Resumo:
La motivación principal de este trabajo fin de máster es el estudio del comportamiento en rotura de un material metálico muy dúctil como es una aleación de aluminio. El conocimiento del comportamiento de los materiales en su régimen plástico es muy valioso, puesto que el concepto de ductilidad de un material está relacionado directamente con la seguridad de una estructura. Un material dúctil es aquel que resiste estados tensionales elevados y alcanza altos niveles de deformación, siendo capaz de absorber gran cantidad de energía antes de su rotura y permitiendo una redistribución de esfuerzos entre elementos estructurales. Por tanto, la utilización de materiales dúctiles en el mundo de la construcción supone en general un incremento de la seguridad estructural por su “capacidad de aviso”, es decir, la deformación que estos materiales experimentan antes de su rotura. Al contrario que los materiales frágiles, que carecen de esta capacidad de aviso antes de su rotura, produciéndose ésta de forma repentina y sin apenas deformación previa. En relación a esto, el ensayo de tracción simple se considera una de las técnicas más sencillas y utilizadas en la caracterización de materiales metálicos, puesto que a partir de la curva fuerza-desplazamiento que este ensayo proporciona, permite obtener de forma precisa la curva tensión-deformación desde el instante de carga máxima. No obstante, existen dificultades para la definición del comportamiento del material desde el instante de carga máxima hasta rotura, lo que provoca que habitualmente no se considere este último tramo de la curva tensión-deformación cuando, tal y como sabemos, contiene una información muy importante y valiosa. Y es que, este último tramo de la curva tensión-deformación es primordial a la hora de determinar la energía máxima que un elemento es capaz de absorber antes de su rotura, aspecto elemental, por ejemplo para conocer si una rotura ha sido accidental o intencionada. Por tanto, el tramo final de la curva tensión-deformación proporciona información muy interesante sobre el comportamiento del material frente a situaciones límite de carga. El objetivo por tanto va a ser continuar con el trabajo realizado por el doctor Ingeniero de Caminos, Canales y Puertos, Fernando Suárez Guerra, el cual estudió en su Tesis Doctoral el comportamiento en rotura de dos materiales metálicos como son, un Material 1: acero perlítico empleado en la fabricación de alambres de pretensado, y un Material 2: acero tipo B 500 SD empleado como armadura pasiva en hormigón armado. Estos materiales presentan un comportamiento a rotura claramente diferenciado, siendo más dúctil el Material 2 que el Material 1. Tomando como partida esta Tesis Doctoral, este Trabajo Fin de Máster pretende continuar con el estudio del comportamiento en rotura de un material metálico mucho más dúctil que los experimentados anteriormente, como es el aluminio. Analizando el último tramo de la curva tensión-deformación, que corresponde al tramo entre el instante de carga máxima y el de rotura del material. Atendiendo a los mecanismos de rotura de un material metálico, es necesario distinguir dos comportamientos distintos. Uno que corresponde a una rotura en forma de copa y cono, y otro que corresponde a una superficie de rotura plana perpendicular a la dirección de aplicación de la carga.
Resumo:
En este proyecto se va desarrollar una aplicación distribuida para la diagnosis y monitorización de automóviles. Se pretende poder realizar estas funciones en prácticamente cualquier automóvil del mercado (con fabricación a partir del año 1996 para el caso de automóviles gasolina y para el año 2000 en el caso de automóviles diésel) de manera remota, aprovechando la conectividad a Internet que actualmente brindan la mayoría de los smartphones. La viabilidad del proyecto reside en la existencia de estándares para la diagnosis de la electrónica del motor. Para poder llevar a cabo esta tarea, se empleará una interfaz de diagnóstico ELM327 bluetooth, que servirá de enlace entre el vehículo y el teléfono móvil del usuario y que a su vez se encargara de enviar los datos que reciba del vehículo a un terminal remoto. De esta manera, se tendrá la aplicación dividida en dos partes: por un lado la aplicación que se ejecuta en el terminal móvil del usuario que actuará como parte servidora, y por el otro la aplicación cliente que se ejecutará en un terminal remoto. También estará disponible una versión de la aplicación servidora para PC. El potencial del proyecto reside en la capacidad de visualización en tiempo real de los parámetros más importantes del motor del vehículo y en la detección de averías gracias a la funcionalidad de lectura de la memoria de averías residente en el vehículo. Así mismo, otras funcionalidades podrían ser implementadas en posteriores versiones de la aplicación, como podría ser el registro de dichos parámetros en una base de datos para su posterior procesado estadístico; de este modo se podría saber el consumo medio, la velocidad media, velocidad máxima alcanzada, tiempo de uso, kilometraje diario o mensual… y un sin fin de posibilidades. ABSTRACT. In this project a distributed application for car monitor and diagnostic is going to be developed. The idea is to be able to connect remotely to almost any car (with production starting in 1996 in the case of petrol engines and production starting in 2000 in case of diesel engines) using the Internet connection available in almost every smartphone. The project is viable because of the existence of standards for engine electronic unit connection. In order to do that, an ELM327 bluetooth interface is going to be used. This interface works as a link between the car and the smartphone, and it is the smartphone which sends the received data from the car to a remote terminal (computer). Thus, the application is divided into two parts: the server which is running on smartphone and the client which is running on a remote terminal. Also there is available a server application for PC. The potential of the project lies in the real-time display data capacity of the most important engine parameters and in the diagnostic capacity based on reading fault memory. In addition, other features could be implemented in later versions of the application, as the capacity of record data for future statistic analysis. By doing this, it is possible to know the average fuel consumption, average speed, maximum speed, time of use, daily or monthly mileage… and an endless number of possibilities.
Resumo:
Los sistemas de imagen por ultrasonidos son hoy una herramienta indispensable en aplicaciones de diagnóstico en medicina y son cada vez más utilizados en aplicaciones industriales en el área de ensayos no destructivos. El array es el elemento primario de estos sistemas y su diseño determina las características de los haces que se pueden construir (forma y tamaño del lóbulo principal, de los lóbulos secundarios y de rejilla, etc.), condicionando la calidad de las imágenes que pueden conseguirse. En arrays regulares la distancia máxima entre elementos se establece en media longitud de onda para evitar la formación de artefactos. Al mismo tiempo, la resolución en la imagen de los objetos presentes en la escena aumenta con el tamaño total de la apertura, por lo que una pequeña mejora en la calidad de la imagen se traduce en un aumento significativo del número de elementos del transductor. Esto tiene, entre otras, las siguientes consecuencias: Problemas de fabricación de los arrays por la gran densidad de conexiones (téngase en cuenta que en aplicaciones típicas de imagen médica, el valor de la longitud de onda es de décimas de milímetro) Baja relación señal/ruido y, en consecuencia, bajo rango dinámico de las señales por el reducido tamaño de los elementos. Complejidad de los equipos que deben manejar un elevado número de canales independientes. Por ejemplo, se necesitarían 10.000 elementos separados λ 2 para una apertura cuadrada de 50 λ. Una forma sencilla para resolver estos problemas existen alternativas que reducen el número de elementos activos de un array pleno, sacrificando hasta cierto punto la calidad de imagen, la energía emitida, el rango dinámico, el contraste, etc. Nosotros planteamos una estrategia diferente, y es desarrollar una metodología de optimización capaz de hallar de forma sistemática configuraciones de arrays de ultrasonido adaptados a aplicaciones específicas. Para realizar dicha labor proponemos el uso de los algoritmos evolutivos para buscar y seleccionar en el espacio de configuraciones de arrays aquellas que mejor se adaptan a los requisitos fijados por cada aplicación. En la memoria se trata el problema de la codificación de las configuraciones de arrays para que puedan ser utilizados como individuos de la población sobre la que van a actuar los algoritmos evolutivos. También se aborda la definición de funciones de idoneidad que permitan realizar comparaciones entre dichas configuraciones de acuerdo con los requisitos y restricciones de cada problema de diseño. Finalmente, se propone emplear el algoritmo multiobjetivo NSGA II como herramienta primaria de optimización y, a continuación, utilizar algoritmos mono-objetivo tipo Simulated Annealing para seleccionar y retinar las soluciones proporcionadas por el NSGA II. Muchas de las funciones de idoneidad que definen las características deseadas del array a diseñar se calculan partir de uno o más patrones de radiación generados por cada solución candidata. La obtención de estos patrones con los métodos habituales de simulación de campo acústico en banda ancha requiere tiempos de cálculo muy grandes que pueden hacer inviable el proceso de optimización con algoritmos evolutivos en la práctica. Como solución, se propone un método de cálculo en banda estrecha que reduce en, al menos, un orden de magnitud el tiempo de cálculo necesario Finalmente se presentan una serie de ejemplos, con arrays lineales y bidimensionales, para validar la metodología de diseño propuesta comparando experimentalmente las características reales de los diseños construidos con las predicciones del método de optimización. ABSTRACT Currently, the ultrasound imaging system is one of the powerful tools in medical diagnostic and non-destructive testing for industrial applications. Ultrasonic arrays design determines the beam characteristics (main and secondary lobes, beam pattern, etc...) which assist to enhance the image resolution. The maximum distance between the elements of the array should be the half of the wavelength to avoid the formation of grating lobes. At the same time, the image resolution of the target in the region of interest increases with the aperture size. Consequently, the larger number of elements in arrays assures the better image quality but this improvement contains the following drawbacks: Difficulties in the arrays manufacturing due to the large connection density. Low noise to signal ratio. Complexity of the ultrasonic system to handle large number of channels. The easiest way to resolve these issues is to reduce the number of active elements in full arrays, but on the other hand the image quality, dynamic range, contrast, etc, are compromised by this solutions In this thesis, an optimization methodology able to find ultrasound array configurations adapted for specific applications is presented. The evolutionary algorithms are used to obtain the ideal arrays among the existing configurations. This work addressed problems such as: the codification of ultrasound arrays to be interpreted as individuals in the evolutionary algorithm population and the fitness function and constraints, which will assess the behaviour of individuals. Therefore, it is proposed to use the multi-objective algorithm NSGA-II as a primary optimization tool, and then use the mono-objective Simulated Annealing algorithm to select and refine the solutions provided by the NSGA I I . The acoustic field is calculated many times for each individual and in every generation for every fitness functions. An acoustic narrow band field simulator, where the number of operations is reduced, this ensures a quick calculation of the acoustic field to reduce the expensive computing time required by these functions we have employed. Finally a set of examples are presented in order to validate our proposed design methodology, using linear and bidimensional arrays where the actual characteristics of the design are compared with the predictions of the optimization methodology.
Resumo:
La tesis doctoral “Estudio de hormigón autocompactante con árido reciclado” realizada dentro del programa de doctorado de la Universidad Politécnica de Madrid “Máster en técnicas experimentales avanzadas en la ingeniería civil”, investiga la sustitución de áridos gruesos naturales por reciclados en hormigones autocompactantes, para demostrar la posibilidad de utilización de este tipo de árido en la fabricación de hormigones autocompactantes. En cuanto a la línea experimental adoptada, la primera fase corresponde a la caracterización de los cementos y de los áridos naturales y reciclados. En ella se han obtenido las principales características físicas y mecánicas. Una vez validadas las características de todos los materiales y adoptada una dosificación de hormigón autocompactante, se han elaborado cuatro dosificaciones con cuatro grados de incorporación de árido reciclado cada una, y una dosificación con seis grados de incorporación de árido reciclado. Fabricándose un total de 22 tipos de hormigón diferentes, sin contar todas las amasadas iniciales hasta la consecución de un hormigón autocompactante. Las cinco dosificaciones se han dividido en dos grupos para poder analizar con mayor grado de definición las características de cada uno. El primer grupo es aquel que contienen los hormigones con diferentes relaciones a/c, que incluye a la muestra A (a/c=0.55), muestra D (a/c=0.50) y muestra E (a/c=0.45). Por el contrario, el segundo grupo dispone de una relación fija de a/c=0.45 pero diferentes relaciones a/c efectivas, ya que algunas de las muestras disponen de un contenido de agua que permite contrarrestar la mayor absorción del árido reciclado. Estando en este grupo la muestra E (sin agua adicional), la muestra H (con presaturación de los áridos) y la muestra I (con un aporte de agua junto con el agua de amasado. Una vez fabricados los hormigones, se pasa a la segunda fase del estudio correspondiente a la caracterización del hormigón en estado fresco. En esta fase se han llevado a cabo los ensayos de escurrimiento, escurrimiento con anillo japonés, ensayo embudo en V y embudo V a los 5 minutos. Todos estos ensayos permiten evaluar la autocompactabilidad del hormigón según el anejo 17 de la EHE-08. La tercera fase del estudio se centra en la caracterización de los hormigones en estado endurecido, evaluando las características resistentes del hormigón. Para ello, se han realizado los ensayos de resistencia a compresión, a tracción, módulo de elasticidad y coeficiente de Poisson. En la cuarta y última fase, se han analizado la durabilidad de los hormigones, debido que a pesar de ofrecer una adecuada autocompactabilidad y resistencia mecánica, se debe de obtener un hormigón con una correcta durabilidad. Para tal fin, se ha determinado la resistencia a la penetración de agua bajo presión y carbonatación de las probetas. Este último ensayo se ha realizado teniendo en cuenta las condiciones del denominado método natural, con una exposición al ambiente de 90 días y 365 días. Con todos estos resultados se elaboraron las conclusiones derivadas de la investigación, demostrándose la posibilidad de fabricación de hormigones autocompactantes con árido reciclado (HACR) con sustituciones de hasta un 40%, e incluso dependiendo de la relación a/c con sustituciones del 60% y el 80%. ABSTRACT The doctoral thesis titled Analysis of self-compacting concrete with recycled aggregates, has been developed in accordance with the doctoral program: Master degree in advanced experimental techniques in civil engineering, at UPM. It investigates the possibility of replacing natural coarse aggregates with recycled coarse aggregates, in the field of self-compacting concrete. The aim of this dissertation is to analyze the possibility of using recycled coarse aggregates in the manufacture process of self-compacting concretes. Regarding the experimental part, the first phase refers to mechanical and physical characterization of some materials such as cement, natural aggregates and recycled aggregates. Once the characteristics of all materials have been validated and the mixing proportions have been adopted, four different mixes are elaborated by using four dosage rates of recycled aggregates in each one of the samples. Moreover, an additional sample consisting of six different dosages of recycled aggregates is considered. A total number of 22 concrete specimens have been manufactured, without including all the initial kneading samples used to obtain this type of self-compacting concrete. The aforementioned mixes have been divided in two different groups to be able to analyze with more definition. The first group is the one in which the concrete contains different values of the water - cement ratio. It includes the next samples: A (w/c=0.55), D (w/c=0.50) and E (w/c=0.45). The second group has a fixed water -cement ratio, w/c=0.45, but a different effective water - cement ratio, since some of the samples have a water content that enables to offset the major absorption of the recycled aggregates, being in this group the mixing E (without additional water), the mixing H (with saturated recycled aggregate) and the mixing I (with an additional water content to the existing kneading water). Once the concrete samples have been manufactured, the following section deals with the characterization of the concrete in fresh conditions. To accomplish this, several characterization tests are carried out such as the slump-flow test, test slump flow with Japanese ring, test V-funnel and V-funnel to 5 minutes. These tests are used to assess the self-compacting conditions according to the annex 17 of the EHE-08 The third phase of the study focuses on the mechanical characterization, the assessment of the strength properties of the concrete such as compressive strength, tensile strength, modulus of elasticity and Poisson´s ratio. Within the fourth and last phase, durability of the concrete is evaluated. This fact is motivated by the need to obtain not only good self-compacting and mechanical strength properties, but also adequate durability conditions. To accomplish the aforementioned durability, resistance of the samples under certain conditions such as water penetration pressure and carbonation, has been obtained. The latter test has been carried out taking into account the natural method, with an exhibition period to the environment of 90 days and 365 days. Through the results coming from this research work, it has been possible to obtain the main conclusions. It has been demonstrated the possibility to manufacture self-compacting concrete by using recycled aggregates with replacement rates up to 40% or, depending on the w/c ratio, rates of 60% and 80% might be reached.
Resumo:
El nitrógeno (N) y el fósforo (P) son nutrientes esenciales en la producción de cultivos. El desarrollo de los fertilizantes de síntesis durante el siglo XX permitió una intensificación de la agricultura y un aumento de las producciones pero a su vez el gran input de nutrientes ha resultado en algunos casos en sistemas poco eficientes incrementando las pérdidas de estos nutrientes al medio ambiente. En el caso del P, este problema se agrava debido a la escasez de reservas de roca fosfórica necesaria para la fabricación de fertilizantes fosfatados. La utilización de residuos orgánicos en agricultura como fuente de N y P es una buena opción de manejo que permite valorizar la gran cantidad de residuos que se generan. Sin embargo, es importante conocer los procesos que se producen en el suelo tras la aplicación de los mismos, ya que influyen en la disponibilidad de nutrientes que pueden ser utilizados por el cultivo así como en las pérdidas de nutrientes de los agrosistemas que pueden ocasionar problemas de contaminación. Aunque la dinámica del N en el suelo ha sido más estudiada que la del P, los problemas importantes de contaminación por nitratos en zonas vulnerables hacen necesaria la evaluación de aquellas prácticas de manejo que pudieran agravar esta situación, y en el caso de los residuos orgánicos, la evaluación de la respuesta agronómica y medioambiental de la aplicación de materiales con un alto contenido en N (como los residuos procedentes de la industria vinícola y alcoholera). En cuanto al P, debido a la mayor complejidad de su ciclo y de las reacciones que ocurren en el suelo, hay un mayor desconocimiento de los factores que influyen en su dinámica en los sistemas suelo-planta, lo que supone nuevas oportunidades de estudio en la evaluación del uso agrícola de los residuos orgánicos. Teniendo en cuenta los conocimientos previos sobre cada nutriente así como las necesidades específicas en el estudio de los mismos, en esta Tesis se han evaluado: (1) el efecto de la aplicación de residuos procedentes de la industria vinícola y alcoholera en la dinámica del N desde el punto de vista agronómico y medioambiental en una zona vulnerable a la contaminación por nitratos; y (2) los factores que influyen en la disponibilidad de P en el suelo tras la aplicación de residuos orgánicos. Para ello se han llevado a cabo incubaciones de laboratorio así como ensayos de campo que permitieran evaluar la dinámica de estos nutrientes en condiciones reales. Las incubaciones de suelo en condiciones controladas de humedad y temperatura para determinar el N mineralizado se utilizan habitualmente para estimar la disponibilidad de N para el cultivo así como el riesgo medioambiental. Por ello se llevó a cabo una incubación en laboratorio para conocer la velocidad de mineralización de N de un compost obtenido a partir de residuos de la industria vinícola y alcoholera, ampliamente distribuida en Castilla-La Mancha, región con problemas importantes de contaminación de acuíferos por nitratos. Se probaron tres dosis crecientes de compost correspondientes a 230, 460 y 690 kg de N total por hectárea que se mezclaron con un suelo franco arcillo arenoso de la zona. La evolución del N mineral en el suelo a lo largo del tiempo se ajustó a un modelo de regresión no lineal, obteniendo valores bajos de N potencialmente mineralizable y bajas contantes de mineralización, lo que indica que se trata de un material resistente a la mineralización y con una lenta liberación de N en el suelo, mineralizándose tan solo 1.61, 1.33 y 1.21% del N total aplicado con cada dosis creciente de compost (para un periodo de seis meses). Por otra parte, la mineralización de N tras la aplicación de este material también se evaluó en condiciones de campo, mediante la elaboración de un balance de N durante dos ciclos de cultivo (2011 y 2012) de melón bajo riego por goteo, cultivo y manejo agrícola muy característicos de la zona de estudio. Las constantes de mineralización obtenidas en el laboratorio se ajustaron a las temperaturas reales en campo para predecir el N mineralizado en campo durante el ciclo de cultivo del melón, sin embargo este modelo generalmente sobreestimaba el N mineralizado observado en campo, por la influencia de otros factores no tenidos en cuenta para obtener esta predicción, como el N acumulado en el suelo, el efecto de la planta o las fluctuaciones de temperatura y humedad. Tanto el ajuste de los datos del laboratorio al modelo de mineralización como las predicciones del mismo fueron mejores cuando se consideraba el efecto de la mezcla suelo-compost que cuando se aislaba el N mineralizado del compost, mostrando la importancia del efecto del suelo en la mineralización del N procedente de residuos orgánicos. Dado que esta zona de estudio ha sido declarada vulnerable a la contaminación por nitratos y cuenta con diferentes unidades hidrológicas protegidas, en el mismo ensayo de campo con melón bajo riego por goteo se evaluó el riesgo de contaminación por nitratos tras la aplicación de diferentes dosis de compost bajo dos regímenes de riego, riego ajustado a las necesidades del cultivo (90 ó 100% de la evapotranspiración del cultivo (ETc)) o riego excedentario (120% ETc). A lo largo del ciclo de cultivo se estimó semanalmente el drenaje mediante la realización de un balance hídrico, así como se tomaron muestras de la solución de suelo y se determinó su concentración de nitratos. Para evaluar el riesgo de contaminación de las aguas subterráneas asociado con estas prácticas, se utilizaron algunos índices medioambientales para determinar la variación en la calidad del agua potable (Índice de Impacto (II)) y en la concentración de nitratos del acuífero (Índice de Impacto Ambiental (EII)). Para combinar parámetros medioambientales con parámetros de producción, se calculó la eficiencia de manejo. Se observó que la aplicación de compost bajo un régimen de riego ajustado no aumentaba el riesgo de contaminación de las aguas subterráneas incluso con la aplicación de la dosis más alta. Sin embargo, la aplicación de grandes cantidades de compost combinada con un riego excedentario supuso un incremento en el N lixiviado a lo largo del ciclo de cultivo, mientras que no se obtuvieron mayores producciones con respecto al riego ajustado. La aplicación de residuos de la industria vinícola y alcoholera como fuente de P fue evaluada en suelos calizos caracterizados por una alta capacidad de retención de P, lo cual en algunos casos limita la disponibilidad de este nutriente. Para ello se llevó a cabo otro ensayo de incubación con dos suelos de diferente textura, con diferente contenido de carbonato cálcico, hierro y con dos niveles de P disponible; a los que se aplicaron diferentes materiales procedentes de estas industrias (con y sin compostaje previo) aportando diferentes cantidades de P. A lo largo del tiempo se analizó el P disponible del suelo (P Olsen) así como el pH y el carbono orgánico disuelto. Al final de la incubación, con el fin de estudiar los cambios producidos por los diferentes residuos en el estado del P del suelo se llevó a cabo un fraccionamiento del P inorgánico del suelo, el cual se separó en P soluble y débilmente enlazado (NaOH-NaCl-P), P soluble en reductores u ocluido en los óxidos de Fe (CBD-P) y P poco soluble precipitado como Ca-P (HCl-P); y se determinó la capacidad de retención de P así como el grado de saturación de este elemento en el suelo. En este ensayo se observó que, dada la naturaleza caliza de los suelos, la influencia de la cantidad de P aplicado con los residuos en el P disponible sólo se producía al comienzo del periodo de incubación, mientras que al final del ensayo el incremento en el P disponible del suelo se igualaba independientemente del P aplicado con cada residuo, aumentando el P retenido en la fracción menos soluble con el aumento del P aplicado. Por el contrario, la aplicación de materiales orgánicos menos estabilizados y con un menor contenido en P, produjo un aumento en las formas de P más lábiles debido a una disolución del P retenido en la fracción menos lábil, lo cual demostró la influencia de la materia orgánica en los procesos que controlan el P disponible en el suelo. La aplicación de residuos aumentó el grado de saturación de P de los suelos, sin embargo los valores obtenidos no superaron los límites establecidos que indican un riesgo de contaminación de las aguas. La influencia de la aplicación de residuos orgánicos en las formas de P inorgánico y orgánico del suelo se estudió además en un suelo ácido de textura areno francosa tras la aplicación en campo a largo plazo de estiércol vacuno y de compost obtenido a partir de biorresiduos, así como la aplicación combinada de compost y un fertilizante mineral (superfosfato tripe), en una rotación de cultivos. En muestras de suelo recogidas 14 años después del establecimiento del experimento en campo, se determinó el P soluble y disponible, la capacidad de adsorción de P, el grado de saturación de P así como diferentes actividades enzimáticas (actividad deshidrogenasa, fosfatasa ácida y fosfatasa alcalina). Las diferentes formas de P orgánico en el suelo se estudiaron mediante una técnica de adición de enzimas con diferentes substratos específicos a extractos de suelo de NaOH-EDTA, midiendo el P hidrolizado durante un periodo de incubación por colorimetría. Las enzimas utilizadas fueron la fosfatasa ácida, la nucleasa y la fitasa las cuales permitieron identificar monoésteres hidrolizables (monoester-like P), diésteres (DNA-like P) e inositol hexaquifosfato (Ins6P-like P). La aplicación a largo plazo de residuos orgánicos aumentó el P disponible del suelo proporcionalmente al P aplicado con cada tipo de fertilización, suponiendo un mayor riesgo de pérdidas de P dado el alto grado de saturación de este suelo. La aplicación de residuos orgánicos aumentó el P orgánico del suelo resistente a la hidrólisis enzimática, sin embargo no influyó en las diferentes formas de P hidrolizable por las enzimas en comparación con las observadas en el suelo sin enmendar. Además, las diferentes formas de P orgánico aplicadas con los residuos orgánicos no se correspondieron con las analizadas en el suelo lo cual demostró que éstas son el resultado de diferentes procesos en el suelo mediados por las plantas, los microorganismos u otros procesos abióticos. En este estudio se encontró una correlación entre el Ins6P-like P y la actividad microbiana (actividad deshidrogenasa) del suelo, lo cual refuerza esta afirmación. Por último, la aplicación de residuos orgánicos como fuente de N y P en la agricultura se evaluó agronómicamente en un escenario real. Se estableció un experimento de campo para evaluar el compost procedente de residuos de bodegas y alcoholeras en el mismo cultivo de melón utilizado en el estudio de la mineralización y lixiviación de N. En este experimento se estudió la aplicación de tres dosis de compost: 1, 2 y 3 kg de compost por metro lineal de plantación correspondientes a 7, 13 y 20 t de compost por hectárea respectivamente; y se estudió el efecto sobre el crecimiento de las plantas, la acumulación de N y P en la planta, así como la producción y calidad del cultivo. La aplicación del compost produjo un ligero incremento en la biomasa vegetal acompañado por una mejora significativa de la producción con respecto a las parcelas no enmendadas, obteniéndose la máxima producción con la aplicación de 2 kg de compost por metro lineal. Aunque los efectos potenciales del N y P fueron parcialmente enmascarados por otras entradas de estos nutrientes en el sistema (alta concentración de nitratos en el agua de riego y ácido fosfórico suministrado por fertirrigación), se observó una mayor acumulación de P uno de los años de estudio que resultó en un aumento en el número de frutos en las parcelas enmendadas. Además, la mayor acumulación de N y P disponible en el suelo al final del ciclo de cultivo indicó el potencial uso de estos materiales como fuente de estos nutrientes. ABSTRACT Nitrogen (N) and phosphorus (P) are essential nutrients in crop production. The development of synthetic fertilizers during the 20th century allowed an intensification of the agriculture increasing crop yields but in turn the great input of nutrients has resulted in some cases in inefficient systems with higher losses to the environment. Regarding P, the scarcity of phosphate rock reserves necessary for the production of phosphate fertilizers aggravates this problem. The use of organic wastes in agriculture as a source of N and P is a good option of management that allows to value the large amount of wastes generated. However, it is important to understand the processes occurring in the soil after application of these materials, as they affect the availability of nutrients that can be used by the crop and the nutrient losses from agricultural systems that can cause problems of contamination. Although soil N dynamic has been more studied than P, the important concern of nitrate pollution in Nitrate Vulnerable Zones requires the evaluation of those management practices that could aggravate this situation, and in the case of organic wastes, the evaluation of the agronomic and environmental response after application of materials with a high N content (such as wastes from winery and distillery industries). On the other hand, due to the complexity of soil P cycle and the reactions that occur in soil, there is less knowledge about the factors that can influence its dynamics in the soil-plant system, which means new opportunities of study regarding the evaluation of the agricultural use of organic wastes. Taking into account the previous knowledge of each nutrient and the specific needs of study, in this Thesis we have evaluated: (1) the effect of the application of wastes from the winery and distillery industries on N dynamics from the agronomic and environmental viewpoint in a vulnerable zone; and (2) the factors that influence P availability in soils after the application of organic wastes. With this purposes, incubations were carried out in laboratory conditions as well as field trials that allow to assess the dynamic of these nutrients in real conditions. Soil incubations under controlled moisture and temperature conditions to determine N mineralization are commonly used to estimate N availability for crops together with the environmental risk. Therefore, a laboratory incubation was conducted in order to determine the N mineralization rate of a compost made from wastes generated in the winery and distillery industries, widely distributed in Castilla-La Mancha, a region with significant problems of aquifers contamination by nitrates. Three increasing doses of compost corresponding to 230, 460 and 690 kg of total N per hectare were mixed with a sandy clay loam soil collected in this area. The evolution of mineral N in soil over time was adjusted to a nonlinear regression model, obtaining low values of potentially mineralizable N and low constants of mineralization, indicating that it is a material resistant to mineralization with a slow release of N, with only 1.61, 1.33 and 1.21% of total N applied being mineralized with each increasing dose of compost (for a period of six months). Furthermore, N mineralization after the application of this material was also evaluated in field conditions by carrying out a N balance during two growing seasons (2011 and 2012) of a melon crop under drip irrigation, a crop and management very characteristic of the area of study. The mineralization constants obtained in the laboratory were adjusted to the actual temperatures observed in the field to predict N mineralized during each growing season, however, this model generally overestimated the N mineralization observed in the field, because of the influence of other factors not taken into account for this prediction, as N accumulated in soil, the plant effect or the fluctuations of temperature and moisture. The fitting of the laboratory data to the model as well as the predictions of N mineralized in the field were better when considering N mineralized from the soil-compost mixture rather than when N mineralized from compost was isolated, underlining the important role of the soil on N mineralization from organic wastes. Since the area of study was declared vulnerable to nitrate pollution and is situated between different protected hydrological units, the risk of nitrate pollution after application of different doses compost was evaluated in the same field trial with melon under two irrigation regimes, irrigation adjusted to the crop needs (90 or 100% of the crop evapotranspiration (ETc)) or excedentary irrigation (120% ETc). Drainage was estimated weekly throughout the growing season by conducting a water balance, samples of the soil solution were taken and the concentration of nitrates was determined. To assess the risk of groundwater contamination associated with these practices, some environmental indices were used to determine the variation in the quality of drinking water (Impact Index (II)) and the nitrates concentration in the groundwater (Environmental Impact Index (EII)). To combine environmental parameters together with yield parameters, the Management Efficiency was calculated. It was observed that the application of compost under irrigation adjusted to the plant needs did not represent a higher risk of groundwater contamination even with the application of the highest doses. However, the application of large amounts of compost combined with an irrigation surplus represented an increase of N leaching during the growing season compared with the unamended plots, while no additional yield with respect to the adjusted irrigation strategy is obtained. The application of wastes derived from the winery and distillery industry as source of P was evaluated in calcareous soils characterized by a high P retention capacity, which in some cases limits the availability of this nutrient. Another incubation experiment was carried out using two soils with different texture, different calcium carbonate and iron contents and two levels of available P; to which different materials from these industries (with and without composting) were applied providing different amounts of P. Soil available P (Olsen P), pH and dissolved organic carbon were analyzed along time. At the end of the incubation, in order to study the changes in soil P status caused by the different residues, a fractionation of soil inorganic P was carried out, which was separated into soluble and weakly bound P (NaOH-NaCl- P), reductant soluble P or occluded in Fe oxides (CBD-P) and P precipitated as poorly soluble Ca-P (HCl-P); and the P retention capacity and degree of P saturation were determined as well. Given the calcareous nature of the soils, the influence of the amount of P applied with the organic wastes in soil available P only occurred at the beginning of the incubation period, while at the end of the trial the increase in soil available P equalled independently of the amount of P applied with each residue, increasing the P retained in the least soluble fraction when increasing P applied. Conversely, the application of less stabilized materials with a lower content of P resulted in an increase in the most labile P forms due to dissolution of P retained in the less labile fraction, demonstrating the influence of organic matter addition on soil P processes that control P availability in soil. As expected, the application of organic wastes increased the degree of P saturation in the soils, however the values obtained did not exceed the limits considered to pose a risk of water pollution. The influence of the application of organic wastes on inorganic and organic soil P forms was also studied in an acid loamy sand soil after long-term field application of cattle manure and biowaste compost and the combined application of compost and mineral fertilizer (triple superphosphate) in a crop rotation. Soil samples were collected 14 years after the establishment of the field experiment, and analyzed for soluble and available P, P sorption capacity, degree of P saturation and enzymatic activities (dehydrogenase, acid phosphatase and alkaline phosphatase). The different forms of organic P in soil were determined by using an enzyme addition technique, based on adding enzymes with different substrate specificities to NaOH-EDTA soil extracts, measuring the hydrolyzed P colorimetrically after an incubation period. The enzymes used were acid phosphatase, nuclease and phytase which allowed to identify hydrolyzable monoesters (monoester-like P) diesters (DNA-like P) and inositol hexakisphosphate (Ins6P-like P). The long-term application of organic wastes increased soil available P proportionally to the P applied with each type of fertilizer, assuming a higher risk of P losses given the high degree of P saturation of this soil. The application of organic wastes increased soil organic P resistant to enzymatic hydrolysis, but no influence was observed regarding the different forms of enzyme hydrolyzable organic P compared to those observed in the non-amended soil. Furthermore, the different forms of organic P applied with the organic wastes did not correspond to those analyzed in the soil which showed that these forms in soil are a result of multifaceted P turnover processes in soil affected by plants, microorganisms and abiotic factors. In this study, a correlation between Ins6P-like P and the microbial activity (dehydrogenase activity) of soil was found, which reinforces this claim. Finally, the application of organic wastes as a source of N and P in agriculture was evaluated agronomically in a real field scenario. A field experiment was established to evaluate the application of compost made from wine-distillery wastes in the same melon crop used in the experiments of N mineralization and leaching. In this experiment the application of three doses of compost were studied: 1 , 2 and 3 kg of compost per linear meter of plantation corresponding to 7, 13 and 20 tonnes of compost per hectare respectively; and the effect on plant growth, N and P accumulation in the plant as well as crop yield and quality was studied. The application of compost produced a slight increase in plant biomass accompanied by a significant improvement in crop yield with respect to the unamended plots, obtaining the maximum yield with the application of 2 kg of compost per linear meter. Although the potential effects of N and P were partially masked by other inputs of these nutrients in the system (high concentration of nitrates in the irrigation water and phosphoric acid supplied by fertigation), an effect of P was observed the first year of study resulting in a greater plant P accumulation and in an increase in the number of fruits in the amended plots. In addition, the higher accumulation of available N and P in the topsoil at the end of the growing season indicated the potential use of this material as source of these nutrients.
Resumo:
El estudio de la influencia de perturbaciones de distinta naturaleza en configuraciones de puentes líquidos apoyados en dos discos coaxiales en rotación encuentra una importante motivación en el uso de dicha configuración en la fabricación de cristales semiconductores ultra-puros por la denominada técnica de zona flotante, en la que la rotación de los discos se utiliza para alcanzar temperaturas uniformes. El presente estudio muestra los resultados obtenidos mediante la aplicación de un método numérico en el análisis de la estabilidad de puentes líquidos en isorrotación sometidos al efecto de una fuerza axial uniforme (gravedad axial) y una excentricidad entre el eje de giro y el eje de los discos. Se analiza el efecto de la aplicación de estos factores tanto de forma conjunta como por separado. Aunque existen numerosos estudios previos sobre puentes líquidos sometidos a diversos efectos, el análisis del efecto combinado de la rotación con excentricidad y gravedad axial no ha sido realizado con anterioridad. Este estudio permite además entender los resultados del experimento a bordo de la misión TEXUS-23, en el que un puente líquido sujeto entre dos discos circulares y coaxiales es sometido al efecto de una rotación creciente en torno a un eje desplazado respecto al eje de los discos. Aunque en el experimento no se impone una fuerza axial controlada, la desestabilización y rotura del puente se produce de forma notablemente asimétrica, lo que no puede ser explicado con los estudios precedentes y sugiere una posible presencia de una aceleración axial residual. Se ha desarrollado por tanto un método de análisis de imágenes que permite comparar las formas obtenidas en el experimento con las calculadas numéricamente. En este estudio se muestran los detalles del procesado realizado en las imágenes de la misión TEXUS-23, y los resultados de su comparación con el análisis numérico, que permiten determinar el valor de la gravedad axial que mejor reproduce los resultados del experimento. Estos resultados ponen de manifiesto la importancia del conocimiento y la modelización de efectos cuya presencia (intencionada o no) afectan de forma visible a la estabilidad y la morfología de los puentes líquidos. ABSTRACT The study of the influence of various disturbances in configurations consisting of a liquid bridge supported by two co-axial disks in rotation has an important motivation in the use of this configuration in the fabrication of ultrapure semiconductor crystals via the so-called floating zone technique, in which the rotation of the disks is used to achieve a uniform temperature field. The present study shows the results obtained through the application of a numerical method in the analysis of the stability of liquid bridges in isorotation under the effect of a uniform axial force field (axial gravity) and an offset between the rotation axis and the axis of the supporting disks (eccentricity). The analysis studies the effect of both the combined and separate application of these factors. Although there are numerous studies on liquid bridges subject to various effects, the analysis of the combined effect of rotation with eccentricity and axial gravity has not been done before. Furthermore, this study allows us to understand the results from the experiment aboard the TEXUS-23 mission, in which a liquid bridge supported between two circular-shaped, co-axial disks is subject to the effect of an increasing rotation around an axis with an offset with respect to the axis of the disks. Although the experiment conditions do not include a controlled axial force field, the instability and breakage of the bridge occurs with a marked asymmetry, which cannot be explained by previous studies and suggests the possible presence of a residual axial gravity. Therefore, an image analysis method has been developed which allows to compare the shapes obtained in the experiment with those calculated with the numerical method. This study shows the details of the processing performed on the images from the TEXUS-23 mission and the results from their comparison with the numerical analysis, which allow to determine the axial gravity value which best recovers the experimental results. These results highlight the importance of the understanding and modelling of effects which, when present (intentionally or not), noticeably affect the stability and shape of the liquid bridges.
Resumo:
El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de dispositivos basados en fibras de cristal fotónico infiltrado selectivamente con cristales líquidos, polímeros y una mezcla de ambos. Todos los dispositivos son sintonizables, y su área de aplicación se centra en comunicaciones ópticas y sensores. La manipulación y fusionado de fibras fotónicas, el llenado selectivo de determinadas cavidades y la alineación recíproca de fibras mantenedoras de polarización son tareas muy específicas y delicadas para las que se requieren protocolos muy estrictos. Previo a la fabricación de dispositivos ha sido necesaria por tanto una tarea de sistematización y creación de protocolos de fabricación. Una vez establecidos se ha procedido a la fabricación y caracterización de dispositivos. Los dispositivos fabricados se enumeran a continuación para posteriormente detallar una a una las singularidades de cada uno. • Interferómetros intermodales hechos a partir de una porción de fibra fotónica soldada entre dos fibras estándar, bien monomodo o PANDA (mantenedora de polarización). Estos interferómetros han sido sumergidos o bien llenados selectivamente con cristales líquidos para así sintonizar la señal interferométrica guiada a través de la fibra. • Infiltración de fibras fotónicas con cristales líquidos colestéricos con especial énfasis en la fase azul (blue phase) de estos materiales. Las moléculas de cristal líquido se autoalinean en volumen por lo que la infiltración de fibras fotónicas con estos cristales líquidos es muy interesante, pues es conocida la dificultad de alinear apropiadamente cristales líquidos dentro de cavidades micrométricas de las fibras fotónicas. • Grabación de redes holográficas de forma selectiva en las cavidades de una fibra fotónica. Estas redes holográficas, llamadas POLICRYPS (POlymer-LIquid CRYstal-Polymer Slices), son redes fabricadas a base de franjas de polímero y cristal líquido alineado perpendicularmente a dichas franjas. Las franjas son a su vez perpendiculares al eje de la fibra como lo puede ser una red de Bragg convencional. El cristal líquido, al estar alineado perpendicularmente a dichos franjas y paralelo al eje de la fibra, se puede conmutar aplicando un campo eléctrico externo, modificando así el índice efectivo de la red. Se puede fabricar por lo tanto una red de Bragg sintonizable en fibra, muy útil en comunicaciones ópticas. • Llenado selectivo de fibras fotónicas con polidimetilsiloxano (PDMS), un polímero de tipo silicona. Si se realiza un llenado selectivo asimétrico se puede inducir birrefringencia en la fibra. El índice de refracción del PDMS tiene una fuerte dependencia térmica, por lo que se puede sintonizar la birrefringencia de la fibra. • Estudio teórico de llenado selectivo de fibras fotónicas con PDMS dopado con nanopartículas de plata de 5, 40 y 80 nm. Estas nanopartículas poseen un pico de absorción en torno a los 450 nm debido a resonancias superficiales localizadas de plasmones (LSPR). La resonancia del plasmon tiene una fuerte dependencia con el índice de refracción del material colindante, y al ser éste PDMS, la variación de índice de refracción se ve amplificada, obteniendo una absorción sintonizable. Se ha propuesto la fabricación de polarizadores sintonizables usando esta técnica. Como ya se ha dicho, previamente a la fabricación ha sido necesaria la protocolización de diversos procedimientos de fabricación de alta complejidad, así como protocolizar el proceso de toma de medidas para optimizar los resultados. Los procedimientos que han requerido la formulación de protocolos específicos han sido los siguientes: • Llenado selectivo de cavidades en una fibra fotónica. Dichas fibras tienen generalmente un diámetro externo de 125 μm, y sus cavidades son de entre 5 y 10 μm de diámetro. Se han desarrollado tres técnicas diferentes para el llenado/bloqueado selectivo, pudiéndose combinar varios protocolos para la optimización del proceso. Las técnicas son las siguientes: o Llenado y bloqueado con un prepolímero. Dicho prepolímero, también llamado adhesivo óptico, está inicialmente en estado líquido y posee una cierta viscosidad. Las cavidades de la fibra fotónica que se desea llenar o bloquear poseen un diámetro diferente al resto, por lo que en el proceso de llenado aparecen dos frentes de llenado dependientes de su diámetro. A mayor diámetro, mayor velocidad de llenado. Polimerizando cuando existe dicha diferencia en los frentes se puede cortar por medio, obteniendo así una fibra parcialmente bloqueada. o Colapsamiento de las cavidades de menor diámetro mediante aplicación de calor. El calor producido por un arco voltaico de una soldadora de fibra estándar fusiona el material exterior de la fibra produciendo el colapsamiento de las cavidades de menor diámetro. En esta técnica también es necesaria una diferencia de diámetros en las cavidades de la fibra. o Bloqueo una a una de las cavidades de la fibra fotónica con adhesivo óptico. Este procedimiento es muy laborioso y requiere mucha precisión. Con este sistema se pueden bloquear las cavidades deseadas de una fibra sin importar su diámetro. • Alineación de una fuente de luz linealmente polarizada con una fibra mantenedora de polarización ya sea PANDA o fotónica. Así mismo también se han alineado entre sí fibras mantenedoras de polarización, para que sus ejes rápidos se fusionen paralelos y así el estado de polarización de la luz guiada se mantenga. • Sistematización de toma de medidas para caracterizar los interferómetros modales. Éstos son altamente sensibles a diversas variables por lo que el proceso de medida es complejo. Se deben aislar variables de forma estrictamente controlada. Aunque todos los dispositivos tienen en común el llenado selectivo de cavidades en una fibra fotónica cada dispositivo tiene sus peculiaridades, que van a ser explicadas a continuación. ABSTRACT The present Thesis has been centered in the design, fabrication and characterization of devices based on photonic crystal fibers selectively filled with liquid crystals, polymers and a mixture of both. All devices are tunable and their work field is optical communications and sensing The handling and splicing of photonic crystal fibers, the selective filling of their holes and the aligning of polarization maintaining fibers are very specific and delicate tasks for which very strict protocols are required. Before the fabrication of devices has therefore been necessary task systematization and creation of manufacturing protocols. Once established we have proceeded to the fabrication and characterization of devices. The fabricated devices are listed below and their peculiarities are detailed one by one: • Intermodal interferometers made with a portion of photonic crystal fiber spliced between two optical communication fiber pigtails, either single mode or PANDA (polarization-maintaining) fiber. These interferometers have been submerged or selectively filled with liquid crystals to tune the interferometric guided signal. • Infiltration of photonic fibers with cholesteric liquid crystals with special emphasis on their blue phase (blue phase). The liquid crystal molecules are self-aligning in volume so the infiltration of photonic fibers with these liquid crystals is very interesting. It is notoriously difficult to properly align liquid crystals within micron cavities such as photonic fibers. • Selectively recording of holographic gratings in the holes of photonic crystal fibers. These holographic gratings, called POLICRYPS (POlymer-LIquid CRYstal-Polymes Slices), are based on walls made of polymer and liquid crystal aligned perpendicular to them. These walls are perpendicular to the axis of the fiber as it can be a conventional Bragg grating. The liquid crystal is aligned perpendicular to the walls and parallel to the fiber axis, and can be switched by applying an external electric field and thus change the effective index of the grating. It is thus possible to manufacture a tunable Bragg grating fiber, useful in optical communications. •Asymmetrically selective filling of photonic crystal fibers with a silicone polymer like called polydimethylsiloxane (PDMS) to induce birefringence in the fiber. The refractive index of PDMS has temperature dependence, so that the birefringence of the fiber can be tuned. • Theoretical study of photonic crystal fibers selectively filled with PDMS doped with silver nanoparticles of 5, 40 and 80 nm. These nanoparticles have an absorption peak around 450 nm due to localized surface plasmon resonances (LSPR). Plasmon resonance has a strong dependence on the refractive index of the adjacent material, and as this is PDMS, the refractive index variation is amplified, obtaining a tunable absorption. Fabrication of tunable polarizers using this technique has been proposed. Before starting the fabrication, it has been necessary to optimize several very delicate procedures and different protocols have been designed. The most delicate procedures are as follows: • Selective filling of holes in a photonic crystal fiber. These fibers generally have an outer diameter of 125 μm, and their holes have a diameter around between 5 and 10 μm. It has been developed three different techniques for filling / selective blocking, and they can be combined for process optimization. The techniques are: o Filling and blocked with a prepolymer. This prepolymer also called optical adhesive is initially in liquid state and has a certain viscosity. The holes of the photonic crystal fiber that are desired to be filled or blocked should have a different diameter, so that in the filling process appear two different fronts depending on the hole diameter. The holes with larger diameter are filled faster. Then the adhesive is polymerized when there is such a difference on the front. A partially blocked fiber is obtained cutting between fronts. o Collapsing of holes of smaller diameter by application of heat. The heat produced by an arc of a standard fusion splicer fuses the outer fiber material producing the collapsing of the cavities of smaller diameter. In this technique also you need a difference of diameters in the fiber holes. o Blocking one by one the holes of photonic crystal fiber with optical adhesive. This procedure is very laborious and requires great precision. This system can block unwanted cavities regardless fiber diameter. • Aligning a linearly polarized light source with a polarization-maintaining fiber (either a PANDA fiber as a photonic crystal fiber). It is needed also an aligning between polarization-maintaining fibers, so that their fast axes parallel merge and that is state of polarization of light guided is maintained. • Systematization of taking measurements to characterize the modal interferometers. These are highly sensitive to several variables so the measurement process is very complicated. Variables must be fixed in a very controlled manner. Although all devices have the common characteristic of being selectively filled PCFs with some kind of material, each one has his own peculiarities, which are explained below.