1000 resultados para Modelo Logit con coeficientes aleatorios
Resumo:
La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
El alcance del proyecto es describir las directrices técnicas, la definición de criterios, y la estrategia de suministro de energía (Electricidad. Calefacción y Agua Caliente Sanitaria (ACS)) a un barrio modelo situado en un entorno urbano. De inicio se estudia los diversos modelos energéticos atendiendo a la normativa y tecnología, que se pueden aplicar en un conjunto residencial, dando como resultado el modelo propuesto de abastecimiento energético, mediante calefacción de distrito, que incorporara el diseño de una planta de producción de energía termo-eléctrica o Central de Energías basada en la tecnología de condensación de baja temperatura para calefacción y A.C.S. incluyendo una cogeneración con pila de combustible. Al mismo tiempo se han calculado y diseñado una serie de chimeneas externas para dar cumplida necesidad técnica y legal al proyecto. Estos estudios nos sirven de punto de partida para analizar la amortización de la inversión y por tanto la rentabilidad y viabilidad del proyecto, comparándose con los costes económicos derivados de la generación por sistemas convencionales. Para finalizar se hace mención a las ventajas medioambientales y a los grados de seguridad en la planta de producción ABSTRACT The scope of this work is the description of an energy supply project ( Electricity, heat and hot water ) to a housing development in a urban neibourhood , including technical criteria in their different options. Initially, several solutions are studied based on available technologies and legal restrictions. The final proposal is based on the district hearing model including electricity production in cogeneration via fuel cell technology as well as heating and hot water produced by low temperature condensation boilers It includes calculations and design criteria of the exhaust gases system and chimeneys in compliance with legal requirement in urban areas. This work also includes an economical model including payback, IRR and VAN analysis and an economical comparaison with the standard solutions. Finally, environmental advantages of the preferred solution over other standards as well as safety issues are also presented.
Resumo:
El capital financiero es muy volátil y si el inversor no obtiene una remuneración adecuada al riesgo que asume puede plantearse el retirar su capital del patrimonio de la empresa y, en consecuencia, producir un cambio estructural en cualquier sector de la economía. El objetivo principal es el estudio de los coeficientes de regresión (coeficiente beta) de los modelos de valoración de activos empleados en Economía Financiera, esto es, el estudio de la variación de la rentabilidad de los activos en función de los cambios que suceden en los mercados. La elección de los modelos utilizados se justifica por la amplia utilización teórica y empírica de los mismos a lo largo de la historia de la Economía Financiera. Se han aplicado el modelo de valoración de activos de mercado (capital asset pricing model, CAPM), el modelo basado en la teoría de precios de arbitraje (arbitrage pricing theory, APT) y el modelo de tres factores de Fama y French (FF). Estos modelos se han aplicado a los rendimientos mensuales de 27 empresas del sector minero que cotizan en la bolsa de Nueva York (New York Stock Exchange, NYSE) o en la de Londres (London Stock Exchange, LSE), con datos del período que comprende desde Enero de 2006 a Diciembre de 2010. Los resultados de series de tiempo y sección cruzada tanto para CAPM, como para APT y FF producen varios errores, lo que sugiere que muchas empresas del sector no han podido obtener el coste de capital. También los resultados muestran que las empresas de mayor riesgo tienden a tener una menor rentabilidad. Estas conclusiones hacen poco probable que se mantenga en el largo plazo el equilibrio actual y puede que sea uno de los principales factores que impulsen un cambio estructural en el sector minero en forma de concentraciones de empresas. ABSTRACT Financial capital is highly volatile and if the investor does not get adequate compensation for the risk faced he may consider withdrawing his capital assets from the company and consequently produce a structural change in any sector of the economy. The main purpose is the study of the regression coefficients (beta) of asset pricing models used in financial economics, that is, the study of variation in profitability of assets in terms of the changes that occur in the markets. The choice of models used is justified by the extensive theoretical and empirical use of them throughout the history of financial economics. Have been used the capital asset pricing model, CAPM, the model XII based on the arbitrage pricing theory (APT) and the three-factor model of Fama and French (FF). These models have been applied to the monthly returns of 27 mining companies listed on the NYSE (New York Stock Exchange) or LSE(London Stock Exchange), using data from the period covered from January 2006 to December 2010. The results of time series and cross sectional regressions for CAPM, APT and FF produce some errors, suggesting that many companies have failed to obtain the cost of capital. Also the results show that higher risk firms tend to have lower profitability. These findings make it unlikely to be mainteined over the long term the current status and could drive structural change in the mining sector in the form of mergers.
Resumo:
La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.
Resumo:
La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.
Resumo:
Tras una introducción a la necesidad de estudio en este tema, se muestran las distintas ramas que los investigadores van siguiendo en la actualidad, exponiéndose las diferencias entre el diagnóstico médico y el industrial, así como la necesidad de estructurar el conocimiento del problema diagnóstico. La aproximación a tiempo real como objetivo y la definición de los sistemas complejos caracterizan el problema propuesto» como método de resolución del problema del diagnóstico» bajo condiciones de tiempo limitado en la respuesta. Como resolución a este problema, se proponen una serie de procedimientos integrados que permiten dar una respuesta según el tiempo disponible y que se resumen en: - Procedimiento de construcción de un árbol de fallos a partir del conocimiento en forma de reglas. - Procedimientos de depuración estructural del árbol de fallos. - Nuevo procedimiento de construcción del conjunto de Conjuntos Mínimos» puerta a puerta del árbol. - Método de resolución de íncertidumbre en los Conjuntos Mínimos en base a parámetros de fiabilidad para el caso de tiempo suficiente. - Definición del concepto de Conjunto Virtual como procedimiento de resolución de tipo estructural del problema del diagnóstico. - Método de resolución de incertidumbre en Conjuntos Virtuales basado en parámetros de fiabilidad. Los métodos propuestos permiten, desde la detección de inconsistencias en el conocimiento, hasta la posibilidad de diagnóstico incompleto, pero seguro, cuando el tiempo es insuficiente, como caracterización del problema del diagnóstico en emergencias.
Resumo:
Este trabajo propone una serie de algoritmos con el objetivo de extraer información de conjuntos de datos con redes de neuronas. Se estudian dichos algoritmos con redes de neuronas Enhenced Neural Networks (ENN), debido a que esta arquitectura tiene algunas ventajas cuando se aproximan funciones mediante redes neuronales. En la red ENN los pesos de la matriz principal varián con cada patrón, por lo que se comete un error menor en la aproximación. Las redes de neuronas ENN reúnen la información en los pesos de su red auxiliar, se propone un método para obtener información de la red a través de dichos pesos en formas de reglas y asignando un factor de certeza de dichas reglas. La red ENN obtiene un error cuadrático medio menor que el error teórico de una aproximación matemática por ejemplo mediante polinomios de Taylor. Se muestra como una red ENN, entrenada a partir un conjunto de patrones obtenido de una función de variables reales, sus pesos asociados tienen unas relaciones similares a las que se veri_can con las variables independientes con dicha función de variables reales. Las redes de neuronas ENN aproximan polinomios, se extrae conocimiento de un conjunto de datos de forma similar a la regresión estadística, resolviendo de forma más adecuada el problema de multicolionalidad en caso de existir. Las relaciones a partir de los pesos asociados de la matriz de la red auxiliar se obtienen similares a los coeficientes de una regresión para el mismo conjunto numérico. Una red ENN entrenada a partir de un conjunto de datos de una función boolena extrae el conocimiento a partir de los pesos asociados, y la influencia de las variables de la regla lógica de la función booleana, queda reejada en esos pesos asociados a la red auxiliar de la red ENN. Se plantea una red de base radial (RBF) para la clasificación y predicción en problemas forestales y agrícolas, obteniendo mejores resultados que con el modelo de regresión y otros métodos. Los resultados con una red RBF mejoran al método de regresión si existe colinealidad entre los datos que se dispone y no son muy numerosos. También se detecta que variables tienen más importancia en virtud de la variable pronóstico. Obteniendo el error cuadrático medio con redes RBF menor que con otros métodos, en particular que con el modelo de regresión. Abstract A series of algorithms is proposed in this study aiming at the goal of producing information about data groups with a neural network. These algorithms are studied with Enheced Neural Networks (ENN), owing to the fact that this structure shows sever advantages when the functions are approximated by neural networks. Main matrix weights in th ENN vary on each pattern; so, a smaller error is produced when approximating. The neural network ENN joins the weight information contained in their auxiliary network. Thus, a method to obtain information on the network through those weights is proposed by means of rules adding a certainty factor. The net ENN obtains a mean squared error smaller than the theorical one emerging from a mathematical aproximation such as, for example, by means of Taylor's polynomials. This study also shows how in a neural network ENN trained from a set of patterns obtained through a function of real variables, its associated weights have relationships similar to those ones tested by means of the independent variables connected with such functions of real variables. The neural network ENN approximates polynomials through it information about a set of data may be obtained in a similar way than through statistical regression, solving in this way possible problems of multicollinearity in a more suitable way. Relationships emerging from the associated weights in the auxiliary network matrix obtained are similar to the coeficients corresponding to a regression for the same numerical set. A net ENN trained from a boolean function data set obtains its information from its associated weights. The inuence of the variables of the boolean function logical rule are reected on those weights associated to the net auxiliar of the ENN. A radial basis neural networks (RBF) for the classification and prediction of forest and agricultural problems is proposed. This scheme obtains better results than the ones obtained by means of regression and other methods. The outputs with a net RBF better the regression method if the collineality with the available data and their amount is not very large. Detection of which variables are more important basing on the forecast variable can also be achieved, obtaining a mean squared error smaller that the ones obtained through other methods, in special the one produced by the regression pattern.
Resumo:
En la última década ha aumentado en gran medida el interés por las redes móviles Ad Hoc. La naturaleza dinámica y sin infraestructura de estas redes, exige un nuevo conjunto de algoritmos y estrategias para proporcionar un servicio de comunicación fiable extremo a extremo. En el contexto de las redes móviles Ad Hoc, el encaminamiento surge como una de las áreas más interesantes para transmitir información desde una fuente hasta un destino, con la calidad de servicio de extremo a extremo. Debido a las restricciones inherentes a las redes móviles, los modelos de encaminamiento tradicionales sobre los que se fundamentan las redes fijas, no son aplicables a las redes móviles Ad Hoc. Como resultado, el encaminamiento en redes móviles Ad Hoc ha gozado de una gran atención durante los últimos años. Esto ha llevado al acrecentamiento de numerosos protocolos de encaminamiento, tratando de cubrir con cada uno de ellos las necesidades de los diferentes tipos de escenarios. En consecuencia, se hace imprescindible estudiar el comportamiento de estos protocolos bajo configuraciones de red variadas, con el fin de ofrecer un mejor encaminamiento respecto a los existentes. El presente trabajo de investigación muestra precisamente una solución de encaminamiento en las redes móviles Ad Hoc. Dicha solución se basa en el mejoramiento de un algoritmo de agrupamiento y la creación de un modelo de encaminamiento; es decir, un modelo que involucra la optimización de un protocolo de enrutamiento apoyado de un mecanismo de agrupación. El algoritmo mejorado, denominado GMWCA (Group Management Weighted Clustering Algorithm) y basado en el WCA (Weighted Clustering Algorithm), permite calcular el mejor número y tamaño de grupos en la red. Con esta mejora se evitan constantes reagrupaciones y que los jefes de clústeres tengan más tiempo de vida intra-clúster y por ende una estabilidad en la comunicación inter-clúster. En la tesis se detallan las ventajas de nuestro algoritmo en relación a otras propuestas bajo WCA. El protocolo de enrutamiento Ad Hoc propuesto, denominado QoS Group Cluster Based Routing Protocol (QoSG-CBRP), utiliza como estrategia el empleo de clúster y jerarquías apoyada en el algoritmo de agrupamiento. Cada clúster tiene un jefe de clúster (JC), quien administra la información de enrutamiento y la envía al destino cuando esta fuera de su área de cobertura. Para evitar que haya constantes reagrupamientos y llamados al algoritmo de agrupamiento se consideró agregarle un jefe de cluster de soporte (JCS), el que asume las funciones del JC, siempre y cuando este haya roto el enlace con los otros nodos comunes del clúster por razones de alejamiento o por desgaste de batería. Matemáticamente y a nivel de algoritmo se han demostrado las mejoras del modelo propuesto, el cual ha involucrado el mejoramiento a nivel de algoritmo de clustering y del protocolo de enrutamiento. El protocolo QoSG-CBRP, se ha implementado en la herramienta de simulación Network Simulator 2 (NS2), con la finalidad de ser comparado con el protocolo de enrutamiento jerárquico Cluster Based Routing Protocol (CBRP) y con un protocolo de enrutamiento Ad Hoc reactivo denominado Ad Hoc On Demand Distance Vector Routing (AODV). Estos protocolos fueron elegidos por ser los que mejor comportamiento presentaron dentro de sus categorías. Además de ofrecer un panorama general de los actuales protocolos de encaminamiento en redes Ad Hoc, este proyecto presenta un procedimiento integral para el análisis de capacidades de la propuesta del nuevo protocolo con respecto a otros, sobre redes que tienen un alto número de nodos. Estas prestaciones se miden en base al concepto de eficiencia de encaminamiento bajo parámetros de calidad de servicio (QoS), permitiendo establecer el camino más corto posible entre un nodo origen y un nodo destino. Con ese fin se han realizado simulaciones con diversos escenarios para responder a los objetivos de la tesis. La conclusiones derivadas del análisis de los resultados permiten evaluar cualitativamente las capacidades que presenta el protocolo dentro del modelo propuesto, al mismo tiempo que avizora un atractivo panorama en líneas futuras de investigación. ABSTRACT In the past decade, the interest in mobile Ad Hoc networks has greatly increased. The dynamic nature of these networks without infrastructure requires a new set of algorithms and strategies to provide a reliable end-to-end communication service. In the context of mobile Ad Hoc networks, routing emerges as one of the most interesting areas for transmitting information from a source to a destination, with the quality of service from end-to-end. Due to the constraints of mobile networks, traditional routing models that are based on fixed networks are not applicable to Ad Hoc mobile networks. As a result, the routing in mobile Ad Hoc networks has experienced great attention in recent years. This has led to the enhancement of many routing protocols, trying to cover with each one of them, the needs of different types of scenarios. Consequently, it is essential to study the behavior of these protocols under various network configurations, in order to provide a better routing scheme. Precisely, the present research shows a routing solution in mobile Ad Hoc networks. This solution is based on the improvement of a clustering algorithm, and the creation of a routing model, ie a model that involves optimizing a routing protocol with the support of a grouping mechanism. The improved algorithm called GMWCA (Group Management Weighted Clustering Algorithm) and based on the WCA (Weighted Clustering Algorithm), allows to calculate the best number and size of groups in the network. With this enhancement, constant regroupings are prevented and cluster heads are living longer intra-cluster lives and therefore stability in inter-cluster communication. The thesis details the advantages of our algorithm in relation to other proposals under WCA. The Ad Hoc routing protocol proposed, called QoS Group Cluster Based Routing Protocol (QoSG-CBRP), uses a cluster-employment strategy and hierarchies supported by the clustering algorithm. Each cluster has a cluster head (JC), who manages the routing information and sends it to the destination when is out of your coverage area. To avoid constant rearrangements and clustering algorithm calls, adding a support cluster head (JCS) was considered. The JCS assumes the role of the JC as long as JC has broken the link with the other nodes in the cluster for common restraining reasons or battery wear. Mathematically and at an algorithm level, the improvements of the proposed model have been showed, this has involved the improvement level clustering algorithm and the routing protocol. QoSG-CBRP protocol has been implemented in the simulation tool Network Simulator 2 (NS2), in order to be compared with the hierarchical routing protocol Cluster Based Routing Protocol (CBRP) and with the reactive routing protocol Ad Hoc On Demand Distance Vector Routing (AODV). These protocols were chosen because they showed the best individual performance in their categories. In addition to providing an overview of existing routing protocols in Ad Hoc networks, this project presents a comprehensive procedure for capacity analysis of the proposed new protocol with respect to others on networks that have a high number of nodes. These benefits are measured based on the concept of routing efficiency under the quality of service (QoS) parameters, thus allowing for the shortest possible path between a source node and a destination node. To meet the objectives of the thesis, simulations have been performed with different scenarios. The conclusions derived from the analysis of the results to assess qualitatively the protocol capabilities presented in the proposed model, while an attractive scenario for future research appears.
Resumo:
Acepto aquí como definición que "un sistema es una combinación de elementos reunidos para obtener un cierto resultado". El sistema que me propongo analizar es el formado por un profesor y un conjunto de alumnos que se reúnen con el objetivo muy determinado de tratar de adquirir unos ciertos conocimientos
Resumo:
La tesis contiene un modelo dirigido a servir de soporte a la toma de decisiones para la mejora de la gestión empresarial en las pymes. Para la construcción del modelo, se dividió la gestión empresarial en doce (12) subsistemas de gestión, a saber: Gestión Estratégica, Mercadeo, Gestión Productiva, Recursos Humanos, Gestión Financiera, Logística, Mantenimiento, Gestión de la Calidad, Seguridad y Salud Laboral, Gestión de la Información y la Comunicación, Innovación y Gestión Ambiental. El enfoque teórico utilizado es que en cada uno de estos subsistemas está contenido el ciclo formado por los procesos Planificar/Hacer/Verificar/Actuar (PHVA); la hipótesis de partida es que existe una correlación positiva significativa entre los procesos o variables exógenas Planificar, Hacer, Verificar, Actuar y el proceso o variable endógena Gestión. Cualquier mejora que se introduzca en los procesos del ciclo tendrá un efecto positivo en la gestión y por ende, en los resultados de la organización. Para la determinación de los factores o ítems que conforman cada uno de los procesos del ciclo PHVA, se llevó a cabo una revisión del estado del arte para cada subsistema de gestión; posteriormente, los ítems seleccionados (335 en total) fueron validados por un equipo de expertos en el tema. Para recopilar los datos necesarios que soportan estadísticamente al modelo, se llevó a cabo un estudio empírico, mediante la aplicación de cuestionarios y entrevistas no estructuradas al personal perteneciente a un grupo de ciento veinticinco (125) pymes del sector industrial, en el Estado Bolívar, Venezuela. El estudio empírico, de tipo transversal, abarcó un período de tres años, en el cual se entrevistaron a 4.500 individuos; la información obtenida se utilizó además, para caracterizar la gestión de las pymes industriales. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad, análisis factorial exploratorio y confirmatorio, análisis de coeficientes de correlación y de regresión, a través del software SPSS v.20. Para examinar las relaciones causales entre los procesos P/H/V/A y cada uno de los subsistemas de gestión, se utilizó la técnica del análisis de senderos (path analysis), con el uso de AMOS v.20. Los resultados del análisis estadístico señalan que los procesos de ejecución y planificación (y por ende las variables que contienen) tienen el mayor impacto significativo sobre la gestión, respecto a los procesos de verificación y mejora continua, en el sector industrial estudiado. El prototipo de modelo de sistema inteligente diseñado cuenta con una base de conocimientos, construida a partir de la experiencia de los expertos y la revisión del estado del arte; una base de hechos representada por los resultados de la evaluación aplicada a cada empresa, y un motor de inferencia, el cual identifica las áreas de mejora y propone las soluciones para resolver los problemas de mayor impacto. El aporte de esta investigación puede ser valorado de dos maneras: desde el punto de vista empresarial, en el sentido de proveer a las pymes de una herramienta para evaluar y mejorar su gestión, y académico, al proporcionar una guía para comprender mejor la interrelación de las variables envueltas en los diversos procesos de gestión de una empresa.
Resumo:
El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.
Resumo:
Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.
Resumo:
El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.
Resumo:
Los diques flotantes son estructuras que atenúan la energía del oleaje fundamentalmente por reflexión y turbulencia. Aunque presentan importantes ventajas en términos constructivos y medioambientales, su efectividad es limitada y en la práctica sólo se emplean en condiciones climáticas propias de zonas con oleajes poco energéticos. Por otro lado, el buque es la estructura flotante por excelencia y su empleo para el abrigo portuario y costero en determinadas situaciones puede aportar las ventajas propias de los diques flotantes, al tiempo que ampliar el rango de oleajes frente a los que estas estructuras son efectivas. El propósito de esta Tesis Doctoral es evaluar la viabilidad del empleo de buques fondeados como diques flotantes para el abrigo portuario y costero. Para ello, se han realizado ensayos en modelo físico a escala reducida en un canal de oleaje del Centro de Estudios de Puertos y Costas (CEPYC), con el objeto de determinar los coeficientes de transmisión (Ct), reflexión (Cr) y disipación (Cd) de barcos de diversas tipologías y dimensiones, sometidos a diferentes oleajes en distintas situaciones de carga, fondeo y profundidad del emplazamiento. La efectividad de los buques empleados en los ensayos se ha determinado mediante el análisis de dichos coeficientes y su variación con la altura de ola y el periodo de los oleajes incidentes. Además, se han registrado las fuerzas existentes en las cadenas de fondeo con objeto de comprobar la viabilidad del mismo y facilitar una estimación del diámetro de las cadenas que serían necesarias en cada situación. Posteriormente, se han aplicado los resultados obtenidos en los ensayos en modelo físico reducido a dos situaciones de abrigo portuario y costero. La primera aplicación consiste en el empleo de buques como defensa temporal en fases constructivas por medios marítimos, partiendo de la hipótesis de que, actuando como diques flotantes, puede proteger la zona de la obra y ampliar las ventanas temporales de periodos de actividad en obra marítima. Las actividades que se han analizado son las de dragado de fondos, vertidos de material granular y transporte y fondeo de cajones flotantes para diques y muelles. La segunda aplicación estudiada es el empleo de buques para la protección costera y la formación de salientes y tómbolos. Los coeficientes de transmisión obtenidos se han introducido en formulaciones analíticas que permiten prever la evolución de la costa frente a la protección procurada por el buque actuando como dique flotante exento. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Floating breakwaters are structures which attenuate wave energy mainly by reflection and turbulence. They display advantages in terms of construction and ecology, amongst others. However, their use is restricted in practice to certain areas with good climatic conditions and low energy waves. Moreover, ships are the most common floating structures and their use for port and coastal shelter in certain situations could widen the range of applicability in addition to the rest of advantages of floating breakwaters. The purpose of this research is to assess the feasibility of ships anchored as floating breakwaters for port and coastal protection. To that end, tests in a scaled down physical model have been conducted in a wave flume in the Centre of Port and Coastal Studies (CEPYC), in order to determine the transmission (Ct), reflection (Cr) and dissipation (Cd) coefficients of ships of diverse types and dimensions, under different wave, load, anchoring and depth conditions. The effectiveness of the several ships used in the tests has been determined by analyzing these coefficients and their variation with the wave height and period of the incident waves. In addition, the existing forces in the anchor chains have been registered to verify the feasibility of the anchoring systems, as well as to provide an estimation of the diameter of the chains that would be needed in each situation. Subsequently, the results of the tests have been applied to two situations of port and coastal protection. The first one is the use of ships as a temporary defense for maritime works with construction phases by maritime means, on the assumption that, acting as floating breakwaters, they can protect the work area and increase the time windows of periods of activity in maritime works. Dredging, dumping of granular material and transport and positioning of big concrete caissons for docks and breakwaters were the activities analyzed. The second situation is the use of ships for coastal protection and forming salients of sand or tombolos. Some analytical formulations which take into account the transmission coefficients from the tests have been used to predict the evolution of the coastline under the protection given by the ships acting as detached floating breakwaters. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.