919 resultados para Many-to-many-assignment problem
Resumo:
Vivimos en la era de la información y del internet, tenemos la necesidad cada vez mayor de conseguir y compartir la información que existe. Esta necesidad se da en todos los ámbitos existentes pero con más ahínco probablemente sea en el área de la medicina, razón por la cual se llevan a cabo muchas investigaciones de distinta índole, lo cual ha llevado a generar un cantidad inimaginable de información y esta su vez muy heterogénea, haciendo cada vez más difícil unificarla y sacar conocimiento o valor agregado. Por lo cual se han llevado a cabo distintas investigaciones para dar solución a este problema, quizás la más importante y con más crecimiento es la búsqueda a partir de modelos de ontologías mediante el uso de sistemas que puedan consultarla. Este trabajo de Fin de Master hace hincapié es la generación de las consultas para poder acceder a la información que se encuentra de manera distribuida en distintos sitios y de manera heterogénea, mediante el uso de una API que genera el código SPARQL necesario. La API que se uso fue creada por el grupo de informática biomédica. También se buscó una manera eficiente de publicar esta API para su futuro uso en el proyecto p-medicine, por lo cual se creó un servicio RESTful para permitir generar las consultas deseadas desde cualquier plataforma, haciendo en esto caso más accesible y universal. Se le dio también una interfaz WEB a la API que permitiera hacer uso de la misma de una manera más amigable para el usuario. ---ABSTRACT---We live in the age of information and Internet so we have the need to consult and share the info that exists. This need comes is in every scope of our lives, probably one of the more important is the medicine, because it is the knowledge area that treats diseases and it tries to extents the live of the human beings. For that reason there have been many different researches generating huge amounts of heterogeneous and distributed information around the globe and making the data more difficult to consult. Consequently there have been many researches to look for an answer about to solve the problem of searching heterogeneous and distributed data, perhaps the more important if the one that use ontological models. This work is about the generation of the query statement based on the mapping API created by the biomedical informatics group. At the same time the project looks for the best way to publish and make available the API for its use in the p-medicine project, for that reason a RESTful API was made to allow the generation of consults from within the platform, becoming much more accessible and universal available. A Web interface was also made to the API, to let access to the final user in a friendly
Resumo:
Current fusion devices consist of multiple diagnostics and hundreds or even thousands of signals. This situation forces on multiple occasions to use distributed data acquisition systems as the best approach. In this type of distributed systems, one of the most important issues is the synchronization between signals, so that it is possible to have a temporal correlation as accurate as possible between the acquired samples of all channels. In last decades, many fusion devices use different types of video cameras to provide inside views of the vessel during operations and to monitor plasma behavior. The synchronization between each video frame and the rest of the different signals acquired from any other diagnostics is essential in order to know correctly the plasma evolution, since it is possible to analyze jointly all the information having accurate knowledge of their temporal correlation. The developed system described in this paper allows timestamping image frames in a real-time acquisition and processing system using 1588 clock distribution. The system has been implemented using FPGA based devices together with a 1588 synchronized timing card (see Fig.1). The solution is based on a previous system [1] that allows image acquisition and real-time image processing based on PXIe technology. This architecture is fully compatible with the ITER Fast Controllers [2] and offers integration with EPICS to control and monitor the entire system. However, this set-up is not able to timestamp the frames acquired since the frame grabber module does not present any type of timing input (IRIG-B, GPS, PTP). To solve this lack, an IEEE1588 PXI timing device its used to provide an accurate way to synchronize distributed data acquisition systems using the Precision Time Protocol (PTP) IEEE 1588 2008 standard. This local timing device can be connected to a master clock device for global synchronization. The timing device has a buffer timestamp for each PXI trigger line and requires tha- a software application assigns each frame the corresponding timestamp. The previous action is critical and cannot be achieved if the frame rate is high. To solve this problem, it has been designed a solution that distributes the clock from the IEEE 1588 timing card to all FlexRIO devices [3]. This solution uses two PXI trigger lines that provide the capacity to assign timestamps to every frame acquired and register events by hardware in a deterministic way. The system provides a solution for timestamping frames to synchronize them with the rest of the different signals.
Resumo:
Passengers comfort in terms of acoustic noise levels is a key train design parameter, especially relevant in high speed trains, where the aerodynamic noise is dominant. The aim of the work, described in this paper, is to make progress in the understanding of the flow field around high speed trains in an open field, which is a subject of interest for many researchers with direct industrial applications, but also the critical configuration of the train inside a tunnel is studied in order to evaluate the external loads arising from noise sources of the train. The airborne noise coming from the wheels (wheelrail interaction), which is the dominant source at a certain range of frequencies, is also investigated from the numerical and experimental points of view. The numerical prediction of the noise in the interior of the train is a very complex problem, involving many different parameters: complex geometries and materials, different noise sources, complex interactions among those sources, broad range of frequencies where the phenomenon is important, etc. During recent years a research plan is being developed at IDR/UPM (Instituto de Microgravedad Ignacio Da Riva, Universidad Politécnica de Madrid) involving both numerical simulations, wind tunnel and full-scale tests to address this problem. Comparison of numerical simulations with experimental data is a key factor in this process.
Resumo:
El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.
Resumo:
Many computer vision and human-computer interaction applications developed in recent years need evaluating complex and continuous mathematical functions as an essential step toward proper operation. However, rigorous evaluation of this kind of functions often implies a very high computational cost, unacceptable in real-time applications. To alleviate this problem, functions are commonly approximated by simpler piecewise-polynomial representations. Following this idea, we propose a novel, efficient, and practical technique to evaluate complex and continuous functions using a nearly optimal design of two types of piecewise linear approximations in the case of a large budget of evaluation subintervals. To this end, we develop a thorough error analysis that yields asymptotically tight bounds to accurately quantify the approximation performance of both representations. It provides an improvement upon previous error estimates and allows the user to control the trade-off between the approximation error and the number of evaluation subintervals. To guarantee real-time operation, the method is suitable for, but not limited to, an efficient implementation in modern Graphics Processing Units (GPUs), where it outperforms previous alternative approaches by exploiting the fixed-function interpolation routines present in their texture units. The proposed technique is a perfect match for any application requiring the evaluation of continuous functions, we have measured in detail its quality and efficiency on several functions, and, in particular, the Gaussian function because it is extensively used in many areas of computer vision and cybernetics, and it is expensive to evaluate.
Resumo:
El objetivo de esta tesis doctoral es la investigación del nuevo concepto de pinzas fotovoltaicas, es decir, del atrapamiento, ordenación y manipulación de partículas en las estructuras generadas en la superficie de materiales ferroeléctricos mediante campos fotovoltaicos o sus gradientes. Las pinzas fotovoltaicas son una herramienta prometedora para atrapar y mover las partículas en la superficie de un material fotovoltaico de una manera controlada. Para aprovechar esta nueva técnica es necesario conocer con precisión el campo eléctrico creado por una iluminación específica en la superficie del cristal y por encima de ella. Este objetivo se ha dividido en una serie de etapas que se describen a continuación. La primera etapa consistió en la modelización del campo fotovoltaico generado por iluminación no homogénea en substratos y guías de onda de acuerdo al modelo de un centro. En la segunda etapa se estudiaron los campos y fuerzas electroforéticas y dielectroforéticas que aparecen sobre la superficie de substratos iluminados inhomogéneamente. En la tercera etapa se estudiaron sus efectos sobre micropartículas y nanopartículas, en particular se estudió el atrapamiento superficial determinando las condiciones que permiten el aprovechamiento como pinzas fotovoltaicas. En la cuarta y última etapa se estudiaron las configuraciones más eficientes en cuanto a resolución espacial. Se trabajó con distintos patrones de iluminación inhomogénea, proponiéndose patrones de iluminación al equipo experimental. Para alcanzar estos objetivos se han desarrollado herramientas de cálculo con las cuales obtenemos temporalmente todas las magnitudes que intervienen en el problema. Con estas herramientas podemos abstraernos de los complicados mecanismos de atrapamiento y a partir de un patrón de luz obtener el atrapamiento. Todo el trabajo realizado se ha llevado a cabo en dos configuraciones del cristal, en corte X ( superficie de atrapamiento paralela al eje óptico) y corte Z ( superficie de atrapamiento perpendicular al eje óptico). Se ha profundizado en la interpretación de las diferencias en los resultados según la configuración del cristal. Todas las simulaciones y experimentos se han realizado utilizando como soporte un mismo material, el niobato de litio, LiNbO3, con el f n de facilitar la comparación de los resultados. Este hecho no ha supuesto una limitación en los resultados pues los modelos no se limitan a este material. Con respecto a la estructura del trabajo, este se divide en tres partes diferenciadas que son: la introducción (I), la modelización del atrapamiento electroforético y dielectroforético (II) y las simulaciones numéricas y comparación con experimentos (III). En la primera parte se fijan las bases sobre las que se sustentarán el resto de las partes. Se describen los efectos electromagnéticos y ópticos a los que se hará referencia en el resto de los capítulos, ya sea por ser necesarios para describir los experimentos o, en otros casos, para dejar constancia de la no aparición de estos efectos para el caso en que nos ocupa y justificar la simplificación que en muchos casos se hace del problema. En esta parte, se describe principalmente el atrapamiento electroforético y dielectroforético, el efecto fotovoltaico y las propiedades del niobato de litio por ser el material que utilizaremos en experimentos y simulaciones. Así mismo, como no debe faltar en ninguna investigación, se ha analizado el state of the art, revisando lo que otros científicos del campo en el que estamos trabajando han realizado y escrito con el fin de que nos sirva de cimiento a la investigación. Con el capítulo 3 finalizamos esta primera parte describiendo las técnicas experimentales que hoy en día se están utilizando en los laboratorios para realizar el atrapamiento de partículas mediante el efecto fotovoltaico, ya que obtendremos ligeras diferencias en los resultados según la técnica de atrapamiento que se utilice. En la parte I I , dedicada a la modelización del atrapamiento, empezaremos con el capítulo 4 donde modelizaremos el campo eléctrico interno de la muestra, para a continuación modelizar el campo eléctrico, los potenciales y las fuerzas externas a la muestra. En capítulo 5 presentaremos un modelo sencillo para comprender el problema que nos aborda, al que llamamos Modelo Estacionario de Separación de Carga. Este modelo da muy buenos resultados a pesar de su sencillez. Pasamos al capítulo 6 donde discretizaremos las ecuaciones que intervienen en la física interna de la muestra mediante el método de las diferencias finitas, desarrollando el Modelo de Distribución de Carga Espacial. Para terminar esta parte, en el capítulo 8 abordamos la programación de las modelizaciones presentadas en los anteriores capítulos con el fn de dotarnos de herramientas para realizar las simulaciones de una manera rápida. En la última parte, III, presentaremos los resultados de las simulaciones numéricas realizadas con las herramientas desarrolladas y comparemos sus resultados con los experimentales. Fácilmente podremos comparar los resultados en las dos configuraciones del cristal, en corte X y corte Z. Finalizaremos con un último capítulo dedicado a las conclusiones, donde resumiremos los resultados que se han ido obteniendo en cada apartado desarrollado y daremos una visión conjunta de la investigación realizada. ABSTRACT The aim of this thesis is the research of the new concept of photovoltaic or optoelectronic tweezers, i.e., trapping, management and manipulation of particles in structures generated by photovoltaic felds or gradients on the surface of ferroelectric materials. Photovoltaic tweezers are a promising tool to trap and move the particles on the surface of a photovoltaic material in a monitored way. To take advantage of this new technique is necessary to know accurately the electric field created by a specifc illumination in the crystal surface and above it. For this purpose, the work was divided into the stages described below. The first stage consisted of modeling the photovoltaic field generated by inhomogeneous illumination in substrates and waveguides according to the one-center model. In the second stage, electrophoretic and dielectrophoretic fields and forces appearing on the surface of substrates and waveguides illuminated inhomogeneously were studied. In the third stage, the study of its effects on microparticles and nanoparticles took place. In particular, the trapping surface was studied identifying the conditions that allow its use as photovoltaic tweezers. In the fourth and fnal stage the most efficient configurations in terms of spatial resolution were studied. Different patterns of inhomogeneous illumination were tested, proposing lightning patterns to the laboratory team. To achieve these objectives calculation tools were developed to get all magnitudes temporarily involved in the problem . With these tools, the complex mechanisms of trapping can be simplified, obtaining the trapping pattern from a light pattern. All research was carried out in two configurations of crystal; in X section (trapping surface parallel to the optical axis) and Z section (trapping surface perpendicular to the optical axis). The differences in the results depending on the configuration of the crystal were deeply studied. All simulations and experiments were made using the same material as support, lithium niobate, LiNbO3, to facilitate the comparison of results. This fact does not mean a limitation in the results since the models are not limited to this material. Regarding the structure of this work, it is divided into three clearly differentiated sections, namely: Introduction (I), Electrophoretic and Dielectrophoretic Capture Modeling (II) and Numerical Simulations and Comparison Experiments (III). The frst section sets the foundations on which the rest of the sections will be based on. Electromagnetic and optical effects that will be referred in the remaining chapters are described, either as being necessary to explain experiments or, in other cases, to note the non-appearance of these effects for the present case and justify the simplification of the problem that is made in many cases. This section mainly describes the electrophoretic and dielectrophoretic trapping, the photovoltaic effect and the properties of lithium niobate as the material to use in experiments and simulations. Likewise, as required in this kind of researches, the state of the art have been analyzed, reviewing what other scientists working in this field have made and written so that serve as a foundation for research. With chapter 3 the first section finalizes describing the experimental techniques that are currently being used in laboratories for trapping particles by the photovoltaic effect, because according to the trapping technique in use we will get slightly different results. The section I I , which is dedicated to the trapping modeling, begins with Chapter 4 where the internal electric field of the sample is modeled, to continue modeling the electric field, potential and forces that are external to the sample. Chapter 5 presents a simple model to understand the problem addressed by us, which is called Steady-State Charge Separation Model. This model gives very good results despite its simplicity. In chapter 6 the equations involved in the internal physics of the sample are discretized by the finite difference method, which is developed in the Spatial Charge Distribution Model. To end this section, chapter 8 is dedicated to program the models presented in the previous chapters in order to provide us with tools to perform simulations in a fast way. In the last section, III, the results of numerical simulations with the developed tools are presented and compared with the experimental results. We can easily compare outcomes in the two configurations of the crystal, in section X and section Z. The final chapter collects the conclusions, summarizing the results that were obtained in previous sections and giving an overview of the research.
Resumo:
Es bien conocido que las pequeñas imperfecciones existentes en los álabes de un rótor de turbomaquinaria (conocidas como “mistuning”) pueden causar un aumento considerable de la amplitud de vibración de la respuesta forzada y, por el contrario, tienen típicamente un efecto beneficioso en el flameo del rótor. Para entender estos efectos se pueden llevar a cabo estudios numéricos del problema aeroelástico completo. Sin embargo, el cálculo de “mistuning” usando modelos de alta resolución es una tarea difícil de realizar, ya que los modelos necesarios para describir de manera precisa el componente de turbomáquina (por ejemplo rotor) tienen, necesariamente, un número muy elevado de grados de libertad, y, además, es necesario hacer un estudio estadístico para poder explorar apropiadamente las distribuciones posibles de “mistuning”, que tienen una naturaleza aleatoria. Diferentes modelos de orden reducido han sido desarrollados en los últimos años para superar este inconveniente. Uno de estos modelos, llamado “Asymptotic Mistuning Model (AMM)”, se deriva de la formulación completa usando técnicas de perturbaciones que se basan en que el “mistuning” es pequeño. El AMM retiene sólo los modos relevantes para describir el efecto del mistuning, y permite identificar los mecanismos clave involucrados en la amplificación de la respuesta forzada y en la estabilización del flameo. En este trabajo, el AMM se usa para estudiar el efecto del “mistuning” de la estructura y de la amortiguación sobre la amplitud de la respuesta forzada. Los resultados obtenidos son validados usando modelos simplificados del rotor y también otros de alta definición. Además, en el marco del proyecto europeo FP7 "Flutter-Free Turbomachinery Blades (FUTURE)", el AMM se aplica para diseñar distribuciones de “mistuning” intencional: (i) una que anula y (ii) otra que reduce a la mitad la amplitud del flameo de un rotor inestable; y las distribuciones obtenidas se validan experimentalmente. Por último, la capacidad de AMM para predecir el comportamiento de flameo de rotores con “mistuning” se comprueba usando resultados de CFD detallados. Abstract It is well known that the small imperfections of the individual blades in a turbomachinery rotor (known as “mistuning”) can cause a substantial increase of the forced response vibration amplitude, and it also typically results in an improvement of the flutter vibration characteristics of the rotor. The understanding of these phenomena can be attempted just by performing numerical simulations of the complete aeroelastic problem. However, the computation of mistuning cases using high fidelity models is a formidable task, because a detailed model of the whole rotor has to be considered, and a statistical study has to be carried out in order to properly explore the effect of the random mistuning distributions. Many reduced order models have been developed in recent years to overcome this barrier. One of these models, called the Asymptotic Mistuning Model (AMM), is systematically derived from the complete bladed disk formulation using a consistent perturbative procedure that exploits the smallness of mistuning to simplify the problem. The AMM retains only the essential system modes that are involved in the mistuning effect, and it allows to identify the key mechanisms of the amplification of the forced response amplitude and the flutter stabilization. In this work, AMM methodolgy is used to study the effect of structural and damping mistuning on the forced response vibration amplitude. The obtained results are verified using a one degree of freedom model of a rotor, and also high fidelity models of the complete rotor. The AMM is also applied, in the frame of the European FP7 project “Flutter-Free Turbomachinery Blades (FUTURE)”, to design two intentional mistuning patterns: (i) one to complete stabilize an unstable rotor, and (ii) other to approximately reduce by half its flutter amplitude. The designed patterns are validated experimentally. Finally, the ability of AMM to predict the flutter behavior of mistuned rotors is checked against numerical, high fidelity CFD results.
Resumo:
Esta tesis se basa en el estudio de la trayectoria que pasa por dos puntos en el problema de los dos cuerpos, inicialmente desarrollado por Lambert, del que toma su nombre. En el pasado, el Problema de Lambert se ha utilizado para la determinación de órbitas a partir de observaciones astronómicas de los cuerpos celestes. Actualmente, se utiliza continuamente en determinación de órbitas, misiones planetaria e interplanetarias, encuentro espacial e interceptación, o incluso en corrección de orbitas. Dada su gran importancia, se decide investigar especialmente sobre su solución y las aplicaciones en las misiones espaciales actuales. El campo de investigación abierto, es muy amplio, así que, es necesario determinar unos objetivos específicos realistas, en el contexto de ejecución de una Tesis, pero que sirvan para mostrar con suficiente claridad el potencial de los resultados aportados en este trabajo, e incluso poder extenderlos a otros campos de aplicación. Como resultado de este análisis, el objetivo principal de la Tesis se enfoca en el desarrollo de algoritmos para resolver el Problema de Lambert, que puedan ser aplicados de forma muy eficiente en las misiones reales donde aparece. En todos los desarrollos, se ha considerado especialmente la eficiencia del cálculo computacional necesario en comparación con los métodos existentes en la actualidad, destacando la forma de evitar la pérdida de precisión inherente a este tipo de algoritmos y la posibilidad de aplicar cualquier método iterativo que implique el uso de derivadas de cualquier orden. En busca de estos objetivos, se desarrollan varias soluciones para resolver el Problema de Lambert, todas ellas basadas en la resolución de ecuaciones transcendentes, con las cuales, se alcanzan las siguientes aportaciones principales de este trabajo: • Una forma genérica completamente diferente de obtener las diversas ecuaciones para resolver el Problema de Lambert, mediante desarrollo analítico, desde cero, a partir de las ecuaciones elementales conocidas de las cónicas (geométricas y temporal), proporcionando en todas ellas fórmulas para el cálculo de derivadas de cualquier orden. • Proporcionar una visión unificada de las ecuaciones más relevantes existentes, mostrando la equivalencia con variantes de las ecuaciones aquí desarrolladas. • Deducción de una nueva variante de ecuación, el mayor logro de esta Tesis, que destaca en eficiencia sobre todas las demás (tanto en coste como en precisión). • Estudio de la sensibilidad de la solución ante variación de los datos iniciales, y como aplicar los resultados a casos reales de optimización de trayectorias. • También, a partir de los resultados, es posible deducir muchas propiedades utilizadas en la literatura para simplificar el problema, en particular la propiedad de invariancia, que conduce al Problema Transformado Simplificado. ABSTRACT This thesis is based on the study of the two-body, two-point boundary-value problem, initially developed by Lambert, from who it takes its name. Since the past, Lambert's Problem has been used for orbit determination from astronomical observations of celestial bodies. Currently, it is continuously used in orbit determinations, for planetary and interplanetary missions, space rendezvous, and interception, or even in orbit corrections. Given its great importance, it is decided to investigate their solution and applications in the current space missions. The open research field is very wide, it is necessary to determine specific and realistic objectives in the execution context of a Thesis, but that these serve to show clearly enough the potential of the results provided in this work, and even to extended them to other areas of application. As a result of this analysis, the main aim of the thesis focuses on the development of algorithms to solve the Lambert’s Problem which can be applied very efficiently in real missions where it appears. In all these developments, it has been specially considered the efficiency of the required computational calculation compared to currently existing methods, highlighting how to avoid the loss of precision inherent in such algorithms and the possibility to apply any iterative method involving the use of derivatives of any order. Looking to meet these objectives, a number of solutions to solve the Lambert’s Problem are developed, all based on the resolution of transcendental equations, with which the following main contributions of this work are reached: • A completely different generic way to get the various equations to solve the Lambert’s Problem by analytical development, from scratch, from the known elementary conic equations (geometrics and temporal), by providing, in all cases, the calculation of derivatives of any order. • Provide a unified view of most existing relevant equations, showing the equivalence with variants of the equations developed here. • Deduction of a new variant of equation, the goal of this Thesis, which emphasizes efficiency (both computational cost and accuracy) over all other. • Estudio de la sensibilidad de la solución ante la variación de las condiciones iniciales, mostrando cómo aprovechar los resultados a casos reales de optimización de trayectorias. • Study of the sensitivity of the solution to the variation of the initial data, and how to use the results to real cases of trajectories’ optimization. • Additionally, from results, it is possible to deduce many properties used in literature to simplify the problem, in particular the invariance property, which leads to a simplified transformed problem.
Resumo:
En esta tesis se estudia la representación, modelado y comparación de colecciones mediante el uso de ontologías en el ámbito de la Web Semántica. Las colecciones, entendidas como agrupaciones de objetos o elementos con entidad propia, son construcciones que aparecen frecuentemente en prácticamente todos los dominios del mundo real, y por tanto, es imprescindible disponer de conceptualizaciones de estas estructuras abstractas y de representaciones de estas conceptualizaciones en los sistemas informáticos, que definan adecuadamente su semántica. Mientras que en muchos ámbitos de la Informática y la Inteligencia Artificial, como por ejemplo la programación, las bases de datos o la recuperación de información, las colecciones han sido ampliamente estudiadas y se han desarrollado representaciones que responden a multitud de conceptualizaciones, en el ámbito de la Web Semántica, sin embargo, su estudio ha sido bastante limitado. De hecho hasta la fecha existen pocas propuestas de representación de colecciones mediante ontologías, y las que hay sólo cubren algunos tipos de colecciones y presentan importantes limitaciones. Esto impide la representación adecuada de colecciones y dificulta otras tareas comunes como la comparación de colecciones, algo crítico en operaciones habituales como las búsquedas semánticas o el enlazado de datos en la Web Semántica. Para solventar este problema esta tesis hace una propuesta de modelización de colecciones basada en una nueva clasificación de colecciones de acuerdo a sus características estructurales (homogeneidad, unicidad, orden y cardinalidad). Esta clasificación permite definir una taxonomía con hasta 16 tipos de colecciones distintas. Entre otras ventajas, esta nueva clasificación permite aprovechar la semántica de las propiedades estructurales de cada tipo de colección para realizar comparaciones utilizando las funciones de similitud y disimilitud más apropiadas. De este modo, la tesis desarrolla además un nuevo catálogo de funciones de similitud para las distintas colecciones, donde se han recogido las funciones de (di)similitud más conocidas y también algunas nuevas. Esta propuesta se ha implementado mediante dos ontologías paralelas, la ontología E-Collections, que representa los distintos tipos de colecciones de la taxonomía y su axiomática, y la ontología SIMEON (Similarity Measures Ontology) que representa los tipos de funciones de (di)similitud para cada tipo de colección. Gracias a estas ontologías, para comparar dos colecciones, una vez representadas como instancias de la clase más apropiada de la ontología E-Collections, automáticamente se sabe qué funciones de (di)similitud de la ontología SIMEON pueden utilizarse para su comparación. Abstract This thesis studies the representation, modeling and comparison of collections in the Semantic Web using ontologies. Collections, understood as groups of objects or elements with their own identities, are constructions that appear frequently in almost all areas of the real world. Therefore, it is essential to have conceptualizations of these abstract structures and representations of these conceptualizations in computer systems, that define their semantic properly. While in many areas of Computer Science and Artificial Intelligence, such as Programming, Databases or Information Retrieval, the collections have been extensively studied and there are representations that match many conceptualizations, in the field Semantic Web, however, their study has been quite limited. In fact, there are few representations of collections using ontologies so far, and they only cover some types of collections and have important limitations. This hinders a proper representation of collections and other common tasks like comparing collections, something critical in usual operations such as semantic search or linking data on the Semantic Web. To solve this problem this thesis makes a proposal for modelling collections based on a new classification of collections according to their structural characteristics (homogeneity, uniqueness, order and cardinality). This classification allows to define a taxonomy with up to 16 different types of collections. Among other advantages, this new classification can leverage the semantics of the structural properties of each type of collection to make comparisons using the most appropriate (dis)similarity functions. Thus, the thesis also develops a new catalog of similarity functions for the different types of collections. This catalog contains the most common (dis)similarity functions as well as new ones. This proposal is implemented through two parallel ontologies, the E-Collections ontology that represents the different types of collections in the taxonomy and their axiomatic, and the SIMEON ontology (Similarity Measures Ontology) that represents the types of (dis)similarity functions for each type of collection. Thanks to these ontologies, to compare two collections, once represented as instances of the appropriate class of E-Collections ontology, we can know automatically which (dis)similarity functions of the SIMEON ontology are suitable for the comparison. Finally, the feasibility and usefulness of this modeling and comparison of collections proposal is proved in the field of oenology, applying both E-Collections and SIMEON ontologies to the representation and comparison of wines with the E-Baco ontology.
Resumo:
Cinchona officinalis (Rubiaceae), especie endémica del Valle de Loja, ubicado en la región sur del Ecuador, es un recurso forestal de importancia medicinal y ecológica, además la especie ha sido catalogada como planta nacional y es un ícono de la región sur por su aporte a la farmacopea mundial. Esta especie, entre los siglos XVII-XIX sufrió una gran presión en sus poblaciones debido a la extracción masiva de la corteza para la cura del paludismo. Aunque la actividad extractiva generó grandes ingresos a la Corona Española y a la región Sur del Ecuador, ésta fue poco o nada sustentable ecológicamente, provocando la desaparición de la especie en muchos sitios de la provincia, pues, en su momento, no se consideraron alternativas de recuperación de las poblaciones naturales. Actualmente la extracción y consumo de la corteza en la zona de origen es baja o nula, sin embargo esta zona enfrenta nuevas amenazas. La deforestación a causa de proyectos de desarrollo en infraestructuras, la práctica de actividades agrícolas y de ganadería, y los efectos del cambio climático han ocasionado, en estos últimos años, la fragmentación de los ecosistemas. La mayoría de los bosques del sur del Ecuador se han convertido en parches aislados (los bosques en los que se distribuye C. officinalis no son la excepción) siendo esta la principal causa para que la especie se encuentre en estado de amenaza. Los individuos de la especie tienen una alta capacidad de rebrote y producen semillas durante todo el año; sin embargo la capacidad germinativa y la tasa de sobrevivencia son bajas, además de estas dificultades la especie requiere de la asociación con otras especies vegetales para su desarrollo, lo cual ha limitado su distribución en pequeños parches aislados. Con esta problemática, la recuperación natural de las poblaciones es una necesidad evidente. Varios trabajos y esfuerzos previos se han realizado a nivel local: i. Identificación de la distribución actual y potencial; ii. Determinación de la fenología y fructificación iii. Programas de educación ambiental, iv. Análisis moleculares para determinar la diversidad genética. v. Ensayos de propagación vegetativa; y otras acciones de tipo cultural. No obstante, el estado de conservación y manejo de las poblaciones naturales no ha mejorado significativamente, siendo necesaria la aplicación de estrategias integradas de conservación in situ y ex situ, que permitan la recuperación y permanencia de las poblaciones naturales a largo plazo. El presente trabajo tiene como fin dar alternativas para el cultivo de tejidos in vitro de Cinchona officinalis centrados en la propagación masiva a partir de semillas, análisis de la fidelidad genética y alternativas de conservación de tejidos. Los objetivos específicos que se plantean son: i. Analizar el proceso de germinación y proliferación in vitro. ii. Evaluar la estabilidad genética en explantes cultivados in vitro, mediante marcadores ISSR. iii. Establecer protocolos de conservación in vitro mediante limitación del crecimiento y criopreservación de segmentos nodales y yemas. Los resultados más significativos de esta investigación fueron: i. El desarrollo de protocolos eficientes para mejorar los porcentajes de germinación y la proliferación de brotes en explantos cultivados in vitro. Para evaluar el efecto de los fenoles sobre la germinación, se determinó el contenido total de fenoles y el porcentaje de germinación en semillas de C. officinalis comparados con una especie de control, C. pubescens. Para inducir a proliferación, se utilizaron segmentos nodales de plántulas germinadas in vitro en medio Gamborg (1968) suplementado con diferentes combinaciones de reguladores de crecimiento (auxinas y citoquininas). Los resultados obtenidos sugieren que el contenido de compuestos fenólicos es alto en las semillas de C. officinalis en comparación con las semillas de C. pubescens. Estos fenoles pueden eliminarse con peróxido de hidrógeno o con lavados de agua para estimular la germinación. La formación de nuevos brotes y callos en la mayoría de las combinaciones de reguladores de crecimiento se observó en un período de 45 días. El mayor porcentaje de proliferación de brotes, formación de callos y presencia de brotes adventicios se obtuvo en medio Gamborg (B5) suplementado con 5.0 mg/l 6-bencil-aminopurina y 3.0 mg/l de ácido indol-3-butírico. ii. La evaluación de la fidelidad genética de los explantes obtenidos con distintas combinaciones de reguladores de crecimiento vegetal y diversos subcultivos. Se realizó el seguimiento a los explantes obtenidos de la fase anterior, determinando el índice de multiplicación y analizando la fidelidad genética de los tejidos obtenidos por las dos vías regenerativas: brotación directa y regeneración de brotes a partir de callos. Este análisis se realizó por amplificación mediante PCR de las secuencias ubicadas entre microsatélites-ISSR (Inter simple sequence repeat). El medio Gamborg (B5) con 3.0 mg/l de AIB y 5.0 mg/l de BAP usado como medio de inducción en la primera etapa de cultivo generó el mayor índice de proliferación (11.5). Un total de 13 marcadores ISSR fueron analizados, 6 de éstos fueron polimórficos. El mayor porcentaje de variación somaclonal fue inducido en presencia de 1.0 mg/l 2,4-D combinado con 0.2 mg/l Kin con un 1.8% en el segundo sub-cultivo de regeneración, la cual incrementó a 3.6% en el tercer sub-cultivo. Todas las combinaciones con presencia de 2,4-D produjeron la formación de callos y presentaron variación genética. Por su parte la fidelidad genética se mantuvo en los sistemas de propagación directa a través de la formación de brotes a partir de meristemos preformados. iii. El establecimiento de protocolos de conservación in vitro y crioconservación de segmentos nodales y yemas. Para la conservación limitando el crecimiento, se cultivaron segmentos nodales en los medios MS y B5 en tres concentraciones de sus componentes (25, 50 y 100%); y en medio B5 más agentes osmóticos como el manitol, sorbitol y sacarosa en diferentes concentraciones (2, 4 y 8%); los cultivos se mantuvieron por 12 meses sin subcultivos. Para el establecimiento de protocolos para la crioconservación (paralización del metabolismo) se usaron yemas axilares y apicales a las cuales se les aplicaron los métodos de encapsulación-deshidratación y vitrificación. La efectividad de los protocolos usados se determinó en función de la sobrevivencia, reducción del crecimiento y regeneración. Los resultados obtenidos en este apartado reflejan que un crecimiento limitado puede mantener tejidos durante 12 meses de almacenamiento, usando medio B5 más manitol entre 2 y 8%. En los protocolos de crioconservación, se obtuvo el mayor porcentaje de recuperación tras la congelación en NL en el tratamiento control seguido por el método crioprotector de encapsulación-deshidratación. Este trabajo brinda alternativas para la propagación de C. officinalis bajo condiciones in vitro, partiendo de material vegetal con alta diversidad genética. El material propagado puede ser fuente de germoplasma para la recuperación y reforzamiento de las poblaciones naturales así como una alternativa de producción para las comunidades locales debido a la demanda actual de corteza de la zona de origen para la elaboración de agua tónica. ABSTRACT Cinchona officinalis (Rubiaceae) is endemic to the Loja Valley, located in the southern area of Ecuador. The importance of this plant as medical and ecological resource is so great that it has been designated as the national flower and is an icon of the southern region for its contribution to the world pharmacopoeia. Between XVII-XIX centuries its population suffered great reduction due to massive harvesting of the bark to cure malaria. Although extraction activity generated large revenues to the Spanish Crown and the southern region of Ecuador, this was not ecologically sustainable, causing the disappearance of the species in many areas of the province, because during that time alternatives to prevent extinction and recover natural populations were not taken in account. Currently the extraction and consumption of bark in the area of origin is almost absent, but this species faces new threats. Deforestation due to infrastructure development, the practice of farming and ranching, and the effects of climate change had led to the fragmentation of ecosystems during the recent years. Most of the forests of southern Ecuador have become isolated patches, including those where C. officinalis is diffused. The lack of suitable habitat is today the main threat for the species. The species has a high capacity for regeneration and produces seeds throughout the year, but the germination rate is low and the growth is slow. In addition, the species requires the association with other plant species to develop. All these factors had limited its distribution to small isolated patches. The natural recovery of populations is essential to face this problem. Several studies and previous efforts had been made at local level: i. Identification of current and potential distribution; ii. Phenology determination. iii. Environmental education programs, iv. Molecular analisis to determine the genetic diversity. v. Testing of vegetative propagation; and other actions of cultural nature. Despite these efforts, the state of conservation and management of natural populations has not improved significantly. Implementation of integrated in situ and ex situ conservation strategies for the recovery and permanence of long-term natural populations is still needed. This work aims to provide alternatives for in vitro culture of tissue of Cinchona officinalis focused on mass propagation from seeds, genetic fidelity analysis and tissue conservation alternatives. The specific aims are: i. Analyze the process of germination and proliferation in vitro. ii. To evaluate the genetic stability of the explants cultured in vitro by ISSR markers. iii. Establish protocols for in vitro conservation by limiting growth and cryopreservation of nodal segments and buds. The most significant results of this research were: i. The development of efficient protocols to improve germination rates and proliferation of buds in explants cultured in vitro. To study the effect of phenols on germination, the total phenolic content and percentage germination was measured in C. officinalis and in a control species, C. pubescens, for comparison. The content of phenolic compounds in C. officinalis seeds is higher than in C. pubescens. These phenols can be removed with hydrogen peroxide or water washes to stimulate germination. To analyze the regeneration, we used nodal explants from seedlings germinated in vitro on Gamborg medium (1968) supplemented with different combinations of growth regulators (auxins and cytokinins) to induce proliferation. The formation of new shoots and calluses was observed within a period of 45 days in most combinations of growth regulators. The highest percentage of shoot proliferation, callus formation and adventitious buds were obtained in B5 medium supplemented with 5.0 mg/l 6-benzyl-aminopurine and 3.0 mg/l indole-3-butyric acid. ii. Evaluating genetic fidelity explants obtained with various combinations of plant growth regulators and different subcultures. The genetic fidelity was analyzed in tissues obtained by the two regenerative pathways: direct sprouting and shoot regeneration from callus. This analysis was performed by PCR amplification of the sequences located between microsatellite-ISSR (Inter Simple Sequence Repeat). Among a total of 13 ISSR markers analyzed, 6 were polymorphic. The highest percentage of somaclonal variation was induced in the presence of 1.0 mg/l 2,4-D combined with 0.2 mg/l Kin with 1.8% in the second round of regeneration, and increased to 3.6% in the third round. The presence of 2,4-D induced genetic variation in all the combinations of growth regulators. Meanwhile genetic fidelity remained systems propagation through direct shoot formation from meristems preformed. iii. Establishing conservation protocols in vitro and cryoconservation of nodal segments and buds. For medium-term conservation (limited growth) nodal segments were cultured in MS and B5 media at three concentrations (25, 50 and 100%); we tested B5 medium with different concentrations of osmotic agents such as mannitol, sorbitol and sucrose (2, 4 and 8%); cultures were maintained for 12 months with regular subculturing. To establish protocols for cryoconservation (cessation of metabolism) different methods of encapsulation-dehydration and vitrification were applied to axillary and apical buds. The effectiveness of the used protocols is determined based on the survival, growth and regeneration success. The results show that these tissues can be maintained in storage for 12 months, using B5 medium plus mannitol between 2 and 8%. The cryoconservation protocol with highest percentage of recovery was obtained by contral treatment, followed by freezing in NL with encapsulation-dehydration method. This work provides alternatives for the propagation in vitro of C. officinalis, starting from plant material with high genetic diversity. The obtained material represents a source of germplasm to support the recovery and strengthening of natural populations as well as a creation of alternative sources for local communities due to the current demand of bark for the preparation of tonic water.
Resumo:
PURPOSE The decision-making process plays a key role in organizations. Every decision-making process produces a final choice that may or may not prompt action. Recurrently, decision makers find themselves in the dichotomous question of following a traditional sequence decision-making process where the output of a decision is used as the input of the next stage of the decision, or following a joint decision-making approach where several decisions are taken simultaneously. The implication of the decision-making process will impact different players of the organization. The choice of the decision- making approach becomes difficult to find, even with the current literature and practitioners’ knowledge. The pursuit of better ways for making decisions has been a common goal for academics and practitioners. Management scientists use different techniques and approaches to improve different types of decisions. The purpose of this decision is to use the available resources as well as possible (data and techniques) to achieve the objectives of the organization. The developing and applying of models and concepts may be helpful to solve managerial problems faced every day in different companies. As a result of this research different decision models are presented to contribute to the body of knowledge of management science. The first models are focused on the manufacturing industry and the second part of the models on the health care industry. Despite these models being case specific, they serve the purpose of exemplifying that different approaches to the problems and could provide interesting results. Unfortunately, there is no universal recipe that could be applied to all the problems. Furthermore, the same model could deliver good results with certain data and bad results for other data. A framework to analyse the data before selecting the model to be used is presented and tested in the models developed to exemplify the ideas. METHODOLOGY As the first step of the research a systematic literature review on the joint decision is presented, as are the different opinions and suggestions of different scholars. For the next stage of the thesis, the decision-making process of more than 50 companies was analysed in companies from different sectors in the production planning area at the Job Shop level. The data was obtained using surveys and face-to-face interviews. The following part of the research into the decision-making process was held in two application fields that are highly relevant for our society; manufacturing and health care. The first step was to study the interactions and develop a mathematical model for the replenishment of the car assembly where the problem of “Vehicle routing problem and Inventory” were combined. The next step was to add the scheduling or car production (car sequencing) decision and use some metaheuristics such as ant colony and genetic algorithms to measure if the behaviour is kept up with different case size problems. A similar approach is presented in a production of semiconductors and aviation parts, where a hoist has to change from one station to another to deal with the work, and a jobs schedule has to be done. However, for this problem simulation was used for experimentation. In parallel, the scheduling of operating rooms was studied. Surgeries were allocated to surgeons and the scheduling of operating rooms was analysed. The first part of the research was done in a Teaching hospital, and for the second part the interaction of uncertainty was added. Once the previous problem had been analysed a general framework to characterize the instance was built. In the final chapter a general conclusion is presented. FINDINGS AND PRACTICAL IMPLICATIONS The first part of the contributions is an update of the decision-making literature review. Also an analysis of the possible savings resulting from a change in the decision process is made. Then, the results of the survey, which present a lack of consistency between what the managers believe and the reality of the integration of their decisions. In the next stage of the thesis, a contribution to the body of knowledge of the operation research, with the joint solution of the replenishment, sequencing and inventory problem in the assembly line is made, together with a parallel work with the operating rooms scheduling where different solutions approaches are presented. In addition to the contribution of the solving methods, with the use of different techniques, the main contribution is the framework that is proposed to pre-evaluate the problem before thinking of the techniques to solve it. However, there is no straightforward answer as to whether it is better to have joint or sequential solutions. Following the proposed framework with the evaluation of factors such as the flexibility of the answer, the number of actors, and the tightness of the data, give us important hints as to the most suitable direction to take to tackle the problem. RESEARCH LIMITATIONS AND AVENUES FOR FUTURE RESEARCH In the first part of the work it was really complicated to calculate the possible savings of different projects, since in many papers these quantities are not reported or the impact is based on non-quantifiable benefits. The other issue is the confidentiality of many projects where the data cannot be presented. For the car assembly line problem more computational power would allow us to solve bigger instances. For the operation research problem there was a lack of historical data to perform a parallel analysis in the teaching hospital. In order to keep testing the decision framework it is necessary to keep applying more case studies in order to generalize the results and make them more evident and less ambiguous. The health care field offers great opportunities since despite the recent awareness of the need to improve the decision-making process there are many opportunities to improve. Another big difference with the automotive industry is that the last improvements are not spread among all the actors. Therefore, in the future this research will focus more on the collaboration between academia and the health care sector.
Resumo:
El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.
Resumo:
Una bóveda no canónica es una bóveda que se adapta a una forma distinta de aquella para la que ha sido inicialmente concebida. Bóvedas raras, anormales, no convencionales, habitualmente consideradas excepciones o casos particulares, resultan ser más frecuentes de lo inicialmente esperado. El interés por este tipo de bóvedas surge a raíz de una investigación inicial sobre las bóvedas empleadas para cubrir espacios de planta anular, como en el caso de las girolas de las iglesias. Sin embargo, el problema de la bóveda anular no puede ser abordado directamente, sino como parte de una investigación más general sobre bóvedas que se deforman para adaptarse a una situación anómala. El análisis de las posibilidades que un determinado tipo de bóveda brinda para resolver el abovedamiento de espacios de planta irregular, trascendiendo el problema de la planta anular, es lo que da origen a esta investigación. La cuestión de las bóvedas deformadas forma parte de un contexto mayor, el de la deformación en arquitectura abovedada. Ante una contradicción, la deformación de la bóveda es sólo una de las posibles opciones que esta arquitectura ofrece para resolver un problema de deformación. La tesis se estructura en dos partes: en la primera parte se analizan los conceptos de forma y deformación en el contexto de la arquitectura abovedada con objeto de sentar las bases para una teoría de las bóvedas no canónicas. El objetivo es establecer un punto de partida para la investigación en un campo que todavía no había sido abordado. En la segunda parte se analizan tres tipos de bóveda desde la perspectiva de las bóvedas no canónicas, a partir de un estudio de casos de bóvedas en España entre los siglos XVI y XVIII. El estudio de la deformación en arquitectura abovedada se centra en el problema de la girola, por tratarse de un caso generalizado de deformación, directamente relacionado con el problema de las bóvedas irregulares y cuyo estudio, llamativamente, no había sido llevado a cabo hasta la fecha. Se propone una primera aproximación al problema de la girola, desde un punto de vista puramente morfológico, al margen de consideraciones históricas. En el caso de las bóvedas deformadas, el análisis se centra en tres tipos de bóveda: la bóveda de crucería, la bóveda de arista y la bóveda baída. Estos tres tipos de bóveda, aunque basadas en criterios formales distintos, están íntimamente relacionados entre sí. Por un lado permiten resolver el mismo problema –planta cuadrada delimitada por arcos–, por otro lado es posible establecer una relación formal entre la bóveda de arista y la bóveda baída a través de la bóveda de crucería. El estudio de casos recogido en la segunda parte de la tesis se fundamenta en dos líneas de investigación, la primera sobre soluciones teóricas de bóvedas no convencionales propuestas en los manuscritos y tratados de cantería, y la segunda sobre bóvedas efectivamente construidas, tratado de establecer una comparación entre teoría y práctica, confrontando el grado de relación entre ambas. Sin embargo este doble análisis sólo se ha podido llevar a cabo en contadas ocasiones. Constatamos que las bóvedas no canónicas reflejadas en los tratados son pocas y apenas se han llevado a la práctica, mientras que las soluciones construidas no responden a modelos teóricos propuestos, manifestando un divorcio entre teoría y práctica. El estudio de estas bóvedas permite poner en cuestión la definición tradicional que relaciona los conceptos de ‘bóveda’ y ‘superficie’. Al iniciar el trabajo nos encontramos con un modelo teórico extremadamente rígido que deja fuera un gran número de bóvedas, obligando a agruparlas bajo el término «no canónicas». El trabajo realizado pone en evidencia lo limitado del modelo. El problema no está en la presencia de bóvedas anómalas, que no se adaptan al modelo tradicionalmente propuesto, sino en la extrema rigidez del modelo. ABSTRACT A non canonical vault is a vault adapted to a different form from that for which was originally conceived. These rare, abnormal, unconventional vaults are usually considered as exceptions or special cases. However they prove to be more frequent than it was initially expected. Interest in this type of vaults arises from an initial research on the vaults used to roof annular spaces, such as ambulatories. Nevertheless, the annular vault question cannot be addressed directly, but as a part of a broader research on distorted vaults; a research on vaults deformed to conform an anomalous layout. The analysis of the possibilities that a particular type of vault provides to solve the vaulting of an irregular layout, beyond the problem of the annular plan is the origin of this research. The argument of deformed vaults is part of a greater context, the context of deformation in vaulted architecture. Facing a contradiction, deforming a vault is just one of the options that vaulted architecture offers to solve a problem of deformation. This dissertation is organised in two parts: in the first part we analyse the concepts of form and deformation in the context of vaulted architecture in order to lay the foundations for a non canonical vaults theory. The objective is to establish a starting point for future research in a field that has not been addressed yet. In the second part, we analyse three types of vault from the perspective of non canonical vaults, based on a case study of Spanish vaults between the 16th and 18th Centuries. The analysis of deformation in vaulted architecture focuses on the question of the ambulatory, because it is a generalized example of deformation, directly related to the problem of irregular vaults. Remarkably, the analysis of these spaces had not been conducted to date. We propose a first approach to the question of the ambulatory, from a purely morphological point of view, setting aside historical considerations. The analysis of deformed vaults focuses on three types of vault: the groin vault, the ribbed vault and the sail vault. These three types of vault, although based on different formal criteria, are closely related between them. On the one hand, they allow to solve the same problem –a square perimeter limited by arcs-; on the other hand, it is possible to establish a formal relationship between the groin vault and the sail vault through the ribbed vault. The case study presented in the second part of this dissertation is based on two research lines: theoretical non conventional vaults solutions proposed on stonecutting treatises; and currently built vaults. The aim of this double analysis was to establish a comparison between theory and practice, comparing the degree of relationship between them. Nevertheless, this double analysis has only been carried out on rare occasions. It is noted that non canonical vaults reflected in treaties are few and hardly been employed, while the built solutions do not meet proposed theoretical models, expressing a divorce between theory and practice. The analysis of these vaults allows us to question the traditional definition that connects the concepts of 'vault' and 'surface'. When we began this research, we found an extremely rigid theoretical model that leaved out many vaults, forcing to group them under the term of «non canonical vaults». This research evidences the limitations of the model. The problem is not the presence of abnormal vaults, which cannot adapt to the traditional model, but in the very high stiffness of the model.
Resumo:
La “Actuación en la Crisis”, objetivo principal de esta tesis, trata de establecer y concretar los procedimientos y apoyos desde tierra y a bordo de los buques, tanto técnicos como operacionales, a seguir por el Capitán y tripulación de un buque después de un accidente, en especial cuando el buque tiene un riesgo importante de hundimiento o necesidad de abandono. La aparición de este concepto es relativamente reciente, es decir desde el año 1995, después de los estudios y propuestas realizados, por el Panel de Expertos de IMO, como consecuencia del hundimiento del buque de pasaje y carga rodada, Estonia, en el que perdieron la vida más de 850 personas a finales de Septiembre de 1994. Entre las propuestas recomendadas y aceptadas por los gobiernos en la Conferencia Internacional SOLAS 1995, figuraba este concepto novedoso, que luego fue adoptado de una forma generalizada para todos los tipos de buques, que hasta entonces sólo disponían de documentos dispersos y a veces contradictorios para la actuación en estos momentos de peligro, que dio lugar a un profundo tratamiento de este problema, que iba a afectar a los buques, tanto en los conceptos y parámetros de proyecto, como a la propia operación del buque. La tesis desarrolla los fundamentos, estado del arte, implantación y consecuencias sobre la configuración y explotación del buque, que han dado lugar a una serie de documentos, que se han incluido en diversos Convenios Internacionales, Códigos y otros documentos de obligada aplicación en la industria naval generados en IMO (SOLAS, Retorno Seguro a Puerto, Plano y Libro de Control de Averías, ISM). La consecuencia más novedosa e interesante de este concepto ha sido la necesidad de disponer cada compañía explotadora del buque, de un servicio importante de “apoyo en la crisis”, que ha dado lugar a implantar un “servicio de emergencia especial”, disponible las 24 horas del día y 365 de año que ofrecen las Sociedades de Clasificación. El know-how de los accidentes que tratan estos servicios, hacen que se puedan establecer ciertas recomendaciones, que se centran, en que el buque tenga, por sus propios medios, una posibilidad de aumentar el KM después de una avería, la garantía de la resistencia estructural adecuada y el aumento del tiempo de hundimiento o el tiempo de mantenimiento a flote (otro tipo de averías vinculadas con la maquinaria, equipo o protección y lucha contra incendios, no son objeto de tesis). Las conclusiones obtenidas, son objeto de discusión especialmente en IACS e IMO, con el fin de establecer las aplicaciones pertinentes, que permitan dar al buque una mayor seguridad. Como objetivo principal de esta tesis es establecer estos puntos de mejora consecuencia de esta actuación en la crisis, con la aportación de varias soluciones que mejorarían los problemas mencionados para los tres tipos de buques que consideramos más importantes (pasaje, petroleros y bulkcarriers) La tesis recorre, desde el principio en 1995, la evolución de esta actuación en la crisis, hasta el momento actual., los puntos básicos que se establecen, que van muy de la mano de la llamada “cultura de seguridad”, objetivo nacido durante los años 90, con el fin de implantar una filosofía distinta para abordar el tratamiento de la seguridad del buque, a la que se venía aplicando hasta el momento, en donde se contemplaba tratar el tema de forma singular y específica para cada caso. La nueva filosofía, trataba de analizar el problema, desde un aspecto global y por tanto horizontal, realizando un estudio exhaustivo de las consecuencias que tendría la aplicación de una nueva medida correctora, en los restantes equipos y sistemas del buque., relativos al proyecto, configuración, operación y explotación del buque. Se describen de manera sucinta las profundas investigaciones a que dio lugar todo lo anterior, estando muchas de ellas, vinculadas a grandes proyectos europeos. La mayor parte de estos proyectos fueron subvencionados por la Comunidad Económica Europea durante la primera década del siglo actual. Dentro de estas investigaciones, donde hay que destacar la participación de todos los agentes del sector marítimo europeo, se hacen imprescindibles la utilización de dos herramientas novedosas para nuestro sector, como son el “Estudio de Riesgos” y la “Evaluación de la Seguridad”, más conocida técnicamente por su nombre ingles “Safety Assessment”, cuyos principios también son incluidos en la tesis. Además se especifican las bases sobre las que se establecen la estabilidad intacta y en averías, con nuevos conceptos, no tratados nunca hasta entonces, como la “altura crítica de agua en cubierta” para la cual el buque se hundiría sin remisión, “estado de la mar” en la que se puede encontrar el buque averiado, el cálculo del tiempo de hundimiento, u otros aspectos como el corrimiento de la carga, o bien el tratamiento de los problemas dinámicos en el nuevo “Código de Estabilidad Intacta”. Con respecto a la resistencia estructural, especialmente el estudio de la “resistencia estructural después de la avería”, que tiene en cuenta el estado de la mar en la que se encontraría el buque afectado. Se analizan los tipos de buques mencionados uno por uno y se sacan, como aportación fundamental de esta tesis, separadamente, las acciones y propuestas a aplicar a estos buques. En primer lugar, las relativas al proyecto y configuración del buque y en segundo lugar, las de operación, explotación y mantenimiento, con el fin de acometer, con garantías de éxito, la respuesta a la ayuda en emergencia y la solución a la difícil situación que pueden tener lugar en condiciones extremas. Para ver el efecto de algunas de las propuestas que se incluyen, se realizan y aplican concretamente, a un buque de pasaje de carga rodada, a un petrolero y a un bulkcarrier, para demostrar el mejor comportamiento de estos buques en situación de emergencia. Para ello se han elegido un buque ejemplo para cada tipo, efectuándose los cálculos de estabilidad y resistencia longitudinal y comparar la situación, en la que quedaría el buque averiado, antes y después de la avería. La tesis se completa con una estadística real de buques averiados de cada uno de estos tres tipos, distinguiendo el tipo de incidente y el número de los buques que lo han sufrido, considerándose como más importantes los incidentes relacionados con varadas, colisiones y fuego resumiéndose lo más relevante de esta aportación también importante de esta tesis. ABSTRACT The "Response in an emergency" is the main objective of this thesis, it seeks to establish and define procedures for technical and operational support onboard and shore, to be followed by the captain and crew on of a ship after an accident, especially when the ship has a significant risk of sinking or a need to abandon it. The emergence of this concept is relatively recent, in 1995, after studies and proposals made by the Panel of Experts IMO, following the sinking of the “Estonia” vessel, where more than 850 people died in late September 1994. In the International Convention SOLAS 1995, among the recommended proposals and accepted regulations, this new concept was included, which was later adopted for all types of ships which until then had only scattered some documents, sometimes including contradictory actions in emergency situations. This led to a profound treatment of this problem, which would affect the vessels in both the concepts and design parameters, as to the proper operation of the vessel. The thesis develops the foundations, state of the art, implementation and consequences on the design and operation of the vessel, this has led to a series of Circulars and Regulations included in several International Codes and Conventions issued by IMO which are required to be complied with (SOLAS Safe Return to Port, Damage Control Plan and Booklet, ISM). The most novel and interesting consequence of this concept has been the need for every company operating the ship to have a shore based support service in emergency situations which has led to implement special emergency services offered by Class Societies which are available 24 hours a day, 365 days per year. The know-how of these services dealing with all types of accidents can establish certain recommendations, which focus on the ship capability to increase the KM after damage. It can also be determined adequate structural strength and the increase of the capsizing time or time afloat (other types of damages associated with the machinery, equipment or firefighting, are not the subject of this thesis). The conclusions are discussed especially in IACS and IMO, in order to establish appropriate applications to improve the security of the vessels. The main objective of this thesis is to establish actions to improve emergency actions, resulting from different responses in the crisis, with the contribution of several solutions that improve the problems mentioned for three types of ships that we consider most important (passenger vessels, tankers and bulk carriers) The thesis runs from the beginning in 1995 to date, the evolution of the response on the crisis. The basics established during the 90s with the "safety culture" in order to implement a different philosophy to address the treatment of the safety of the ship, which was being previously implemented, as something singular and specific to each case. The new philosophy tried to analyse the problem from a global perspective, doing an exhaustive study of the consequences of the implementation of the new regulation in the ship systems and equipment related to the design, configuration and operation of the vessel. Extensive investigations which led to the above are described, many of them being linked to major European projects. Most of these projects were funded by the European Union during the first decade of this century. Within these investigations, which it must be highlighted the participation of all players in the European maritime sector, a necessity to use two new tools for our industry, such as the "Risk Assessment" and "Safety Assessment" whose principles are also included in the thesis. The intact and damage stability principles are established including new concepts, never treated before, as the "critical height of water on deck" for which the ship would sink without remission, "sea state" where the damaged vessel can be found, calculation of capsizing time, or other aspects such cargo shifting or treatment of dynamic problems in the new Intact Stability Code in development. Regarding the structural strength, it has to be especially considered the study of the "residual strength after damage", which takes into account the state of the sea where the vessel damaged can be found. Ship types mentioned are analysed one by one, as a fundamental contribution of this thesis, different actions and proposals are established to apply to these types of vessels. First, those ones relating to the design and configuration of the vessel and also the ones related to the operation and maintenance in order to support successfully responses to emergency situations which may occur in extreme situations. Some of the proposals are applied specifically to a RoRo passenger ship, an oil tanker and a bulkcarrier, to demonstrate the improved performance of these vessels damaged. An example for each type vessel has been chosen, carrying out stability and longitudinal strength calculations comparing the situation of the ship before and after damage. The thesis is completed with incidents statics for each of these three types, distinguishing the type of incident and the number of ships having it. The most important incidents considered are the ones related to groundings, collisions and fire being this other relevant contribution of this thesis.
Resumo:
We recently cloned an inward-rectifying K channel (Kir) cDNA, CCD-IRK3 (mKir 2.3), from a cortical collecting duct (CCD) cell line. Although this recombinant channel shares many functional properties with the “small-conductance” basolateral membrane Kir channel in the CCD, its precise subcellular localization has been difficult to elucidate by conventional immunocytochemistry. To circumvent this problem, we studied the targeting of several different epitope-tagged CCD-IRK3 in a polarized renal epithelial cell line. Either the 11-amino acid span of the vesicular stomatitis virus (VSV) G glycoprotein (P5D4 epitope) or a 6-amino acid epitope of the bovine papilloma virus capsid protein (AU1) was genetically engineered on the extreme N terminus of CCD-IRK3. As determined by patch-clamp and two-microelectrode voltage-clamp analyses in Xenopus oocytes, neither tag affected channel function; no differences in cation selectivity, barium block, single channel conductance, or open probability could be distinguished between the wild-type and the tagged constructs. MDCK cells were transfected with tagged CCD-IRK3, and several stable clonal cell lines were generated by neomycin-resistance selection. Immunoprecipitation studies with anti-P5D4 or anti-AU1 antibodies readily detected the predicted-size 50-kDa protein in the transfected cells lines but not in wild-type or vector-only (PcB6) transfected MDCK cells. As visualized by indirect immunofluorescence and confocal microscopy, both the tagged CCD-IRK3 forms were exclusively detected on the basolateral membrane. To assure that the VSV G tag was not responsible for the targeting, the P5D4 epitope modified by a site-directed mutagenesis (Y2F) to remove a potential basolateral targeting signal contained in this tag. VSV(Y2F) was also detected exclusively on the basolateral membrane, confirming bona fide IRK3 basolateral expression. These observations, with our functional studies, suggest that CCD-IRK3 may encode the small-conductance CCD basolateral K channel.