1000 resultados para ANÁLISIS DE MERCADEO - MÉTODOS DE SIMULACIÓN


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta obra, se presenta un análisis estructural de tableros de puentes de sección constante y simplemente apoyados, compuestos de vigas y losas arbitrariamente conectadas. El estudio se realiza para el caso general de carga vertical puntual actuando en un punto genérico del tablero. Se determinan las matrices de rigidez de las vigas y losas, considerando en estas últimas sus dos tipos de esfuerzos, es decir, los esfuerzos laja y placa. En la deducción de la matriz de rigidez de todo el tablero, se utiliza la técnica estándar de la teoría de los métodos matriciales en el cálculo de estructuras. El método de la matriz de transferencia y uno iterativo, análogo al método de H. Cross para entramados planos, son también expuestos. Se resuelve, finalmente, un ejemplo de aplicación mediante un ordenador electrónico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto lleva a cabo un análisis de la viabilidad de la estructura geológica Villameriel, situada en la provincia de Palencia, para el almacenamiento geológico profundo de CO2. Las dos medidas determinadas para su análisis serán la determinación de la cantidad de CO2 que se puede inyectar en la formación y el comportamiento del mismo en su interior durante los próximos 100 años. Para calcular estas medidas utilizamos la simulación numérica, a través de dos programas de SCHLUMBERGER. El primero, PETREL, diseñando un modelo estático que escenifique las propiedades del medio geológico lo más real posible, llamado modelo estático. El segundo, ECLIPSE300, que simula el comportamiento del fluido según entra en la formación y a lo largo de todo el período de estudio. Como conclusión final llevaremos a cabo un estudio económico que analice el potencial que tiene este proyecto para llevarse a cabo en la sociedad en la que nos encontramos ahora mismo ABSTRACT This project analyzes the viability of Villameriel geological structure, which is situated in Palencia, Spain. There will be two measures to probe it. The first will be to calculate how much amount of CO2 can be stored in this structure, and second will be to see how the CO2 behaves inside the first 100 years. In order to obtain the answers from these questions, Schlumberger programs are used specifically PETREL and ECLIPSE300. This programs work with numerical methods and they simulate a static model and a dynamic model. Static model is created in order to build a geological model with the same properties than in the real life. Dynamic model works to obtain the maximum amount of CO2 that it can be introduced inside storage formation and to know how CO2 will move inside the first 100 years. At the end, an economic study will be done with the objective to know if it would cost money, if there would be profits or no.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este documento es la descripción de una simulación de sistemas de vigilancia para la evaluación de herramientas de control de tráfico aéreo. Se pretende mostrar el desarrollo de un sistema radar en Modo S mediante una simulación por eventos discretos. Para ello, se ha desarrollado un software en lenguaje Java que incluye la simulación de trayectorias de aeronaves, métodos de obtención de posiciones, cambios entre los distintos sistemas de coordenadas, la simulación del barrido mecánico de un radar Modo S, así como modelos de cobertura y detección de aeronaves, creación de mensajes proporcionados mediante el enlace de datos Modo S (Downliked Airborne Parameters, DAP) que contienen información relevante para el control de tráfico aéreo, como pueden ser datos de velocidad o altura. Dentro del simulador del radar también se incluyen rutinas para la visualización en Matlab de los resultados obtenidos, lo que permite verificar las detecciones y ubicaciones de las aeronaves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo fin de grado (TFG) consiste en estudiar algunas técnicas de análisis tiempo-frecuencia y aplicarlas a la detección de señales radar. Estas técnicas se incorporan en los actuales equipos de guerra electrónica radar, tales como los interceptadores digitales. La principal motivación de estos equipos consiste en detectar y localizar las fuentes radiantes enemigas e intentar obtener cierta información de las señales interceptadas, tal como, la dirección de llegada (DOA, Direction Of Arrival), el tiempo de llegada (TOA, Time Of Arrival), amplitud de pulso (PA, Pulse Amplitude), anchura de pulso (PW, Pulse Width), frecuencia instantánea (IF, Instantaneous Frequency) o modulación intrapulso. Se comenzará con un estudio detallado de la Short-Time Fourier Transform (STFT),dado su carácter lineal es la técnica más explotada actualmente. Este algoritmo presenta una mala resolución conjunta tiempo-frecuencia. Este hecho provoca el estudio complementario de una segunda técnica de análisis basada en la distribución de Wigner-Ville (WVD). Mediante este método se logra una resolución optima tiempo-frecuencia. A cambio, se obtienen términos cruzados indeseados debido a su carácter cuadrático. Uno de los objetivos de este TFG reside en calcular la sensibilidad de los sistemas de detección analizados a partir de las técnicas tiempo-frecuencia. Se hará uso del método de Monte Carlo para estimar ciertos parámetros estadísticos del sistema tales como la probabilidad de falsa alarma y de detección. Así mismo, se llevará a cabo el estudio completo de un receptor digital de guerra electrónica a fin de comprender el funcionamiento de todos los subsistemas que componen el conjunto (STFT/WVD, medidor instantáneo de frecuencias, procesamiento no coherente y generación de descriptores de pulso). Por último, se analizará su comportamiento frente a diferentes señales Radar (FM-lineal, BPSK, chirp o Barker). Se utilizará para ello la herramienta Matlab.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este Trabajo de Fin de Grado es el estudio e implementación de estrategias de detección de objetos móviles basadas en el uso de Local Binary Patterns. Para ello, en primer lugar se han analizado los métodos de substracción de fondos basados en información de textura propuestos durante los últimos años. Como resultado de este análisis, se ha implementado una estrategia basada en Local Binary Patterns a la que posteriormente se le han añadido las mejoras que se han considerado más apropiadas, las cuales están destinadas tanto a reducir el coste computacional de la estrategia como a mejorar la calidad de los resultados obtenidos. Por último se ha realizado un estudio comparativo entre las estrategias implementadas y otros métodos populares empleados para la substracción de fondos, como los basados en el uso de mezclas de gaussianas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El funcionamiento interno del cerebro es todavía hoy en día un misterio, siendo su comprensión uno de los principales desafíos a los que se enfrenta la ciencia moderna. El córtex cerebral es el área del cerebro donde tienen lugar los procesos cerebrales de más alto nivel, cómo la imaginación, el juicio o el pensamiento abstracto. Las neuronas piramidales, un tipo específico de neurona, suponen cerca del 80% de los cerca de los 10.000 millones de que componen el córtex cerebral, haciendo de ellas un objetivo principal en el estudio del funcionamiento del cerebro. La morfología neuronal, y más específicamente la morfología dendrítica, determina cómo estas procesan la información y los patrones de conexión entre neuronas, siendo los modelos computacionales herramientas imprescindibles para el estudio de su rol en el funcionamiento del cerebro. En este trabajo hemos creado un modelo computacional, con más de 50 variables relativas a la morfología dendrítica, capaz de simular el crecimiento de arborizaciones dendríticas basales completas a partir de reconstrucciones de neuronas piramidales reales, abarcando desde el número de dendritas hasta el crecimiento los los árboles dendríticos. A diferencia de los trabajos anteriores, nuestro modelo basado en redes Bayesianas contempla la arborización dendrítica en su conjunto, teniendo en cuenta las interacciones entre dendritas y detectando de forma automática las relaciones entre las variables morfológicas que caracterizan la arborización. Además, el análisis de las redes Bayesianas puede ayudar a identificar relaciones hasta ahora desconocidas entre variables morfológicas. Motivado por el estudio de la orientación de las dendritas basales, en este trabajo se introduce una regularización L1 generalizada, aplicada al aprendizaje de la distribución von Mises multivariante, una de las principales distribuciones de probabilidad direccional multivariante. También se propone una distancia circular multivariante que puede utilizarse para estimar la divergencia de Kullback-Leibler entre dos muestras de datos circulares. Comparamos los modelos con y sin regularizaci ón en el estudio de la orientación de la dendritas basales en neuronas humanas, comprobando que, en general, el modelo regularizado obtiene mejores resultados. El muestreo, ajuste y representación de la distribución von Mises multivariante se implementa en un nuevo paquete de R denominado mvCircular.---ABSTRACT---The inner workings of the brain are, as of today, a mystery. To understand the brain is one of the main challenges faced by current science. The cerebral cortex is the region of the brain where all superior brain processes, like imagination, judge and abstract reasoning take place. Pyramidal neurons, a specific type of neurons, constitute approximately the 80% of the more than 10.000 million neurons that compound the cerebral cortex. It makes the study of the pyramidal neurons crucial in order to understand how the brain works. Neuron morphology, and specifically the dendritic morphology, determines how the information is processed in the neurons, as well as the connection patterns among neurons. Computational models are one of the main tools for studying dendritic morphology and its role in the brain function. We have built a computational model that contains more than 50 morphological variables of the dendritic arborizations. This model is able to simulate the growth of complete dendritic arborizations from real neuron reconstructions, starting with the number of basal dendrites, and ending modeling the growth of dendritic trees. One of the main diferences between our approach, mainly based on the use of Bayesian networks, and other models in the state of the art is that we model the whole dendritic arborization instead of focusing on individual trees, which makes us able to take into account the interactions between dendrites and to automatically detect relationships between the morphologic variables that characterize the arborization. Moreover, the posterior analysis of the relationships in the model can help to identify new relations between morphological variables. Motivated by the study of the basal dendrites orientation, a generalized L1 regularization applied to the multivariate von Mises distribution, one of the most used distributions in multivariate directional statistics, is also introduced in this work. We also propose a circular multivariate distance that can be used to estimate the Kullback-Leibler divergence between two circular data samples. We compare the regularized and unregularized models on basal dendrites orientation of human neurons and prove that regularized model achieves better results than non regularized von Mises model. Sampling, fitting and plotting functions for the multivariate von Mises are implemented in a new R packaged called mvCircular.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto abarca el estudio, análisis y dimensionamiento del tren de Licuación Gas Natural del proyecto Gorgon LNG basado en la tecnología AP/C3MR de Air Products. Este estudio cubre toda la evolución del gas natural dentro del tren de licuación, antes de ser enviado a los tanques de almacenamiento, apoyándose en procesos de simulación informática. Como parte de este proyecto, se realiza una propuesta de todos los equipos (intercambiadores de calor, turbinas de gas, compresores, etc.) necesarios para la consecución del proceso teniendo como base los datos resultantes del proceso de simulación llevado a cabo. Una vez realizada tanto la simulación del proceso como la propuesta de equipos, se hace una valoración económica del proyecto que confirme la viabilidad de este tipo de tecnología, enmarcándola en el mercado de combustibles actual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto tiene la finalidad de diseñar una herramienta mediante métodos numéricos implementados en Matlab que permita estudiar los fenómenos térmicos que tiene lugar en los cables subterráneos de potencia cuando se encuentran en carga. Y a partir de las soluciones obtenidas determinar la capacidad máxima del transporte del cable para un emplazamiento determinado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ciberseguridad es un tema que está cobrando cada vez más importancia en nuestra sociedad debido al continuo desarrollo que está experimentando Internet. Las personas siempre se han preocupado por proteger sus datos y posesiones físicas; pero, por algún motivo que se desconoce, no logran tomar conciencia de que es igualmente importante guardar de manera segura su información digital. Últimamente, empresas y particulares han empezado a instalar cortafuegos, sistemas anti-virus, sistemas de detección frente a intrusos, etc. Sin embargo, hay una parte de la ciberseguridad desconocida y muy peligrosa que puede provocar que un ataque tenga éxito pese a existir todos estos sistemas de protección: la Ingeniería Social. El objetivo de este documento es repasar de manera detallada las técnicas que utilizan hoy en día los hackers para complementar sus ataques o para realizarlos directamente a través de ellas. Muchos métodos han existido siempre, otros han evolucionado a través del tiempo y algunos han surgido con el paso de los años debido a los nuevos medios de comunicación que se han ido desarrollando. Además, se va a intentar analizar cuáles son las mejores técnicas dependiendo de cuál sea el objetivo del atacante. Este estudio se ha realizado considerando las diferencias que supone que un ataque vaya dirigido a una persona corriente o a una empresa en particular. Este apartado reúne todos los datos que se han podido encontrar para que quien lo lea sea capaz de tener en cuenta la mayoría de casos posibles que un hacker puede considerar cuando realiza un ataque de estas características. Por último, se ha creído importante proponer una campaña de concienciación para aportar una posible solución a la educación de la sociedad sobre la Ingeniería Social. Repasando campañas de sensibilización hechas en el pasado por empresas, instituciones privadas o gobiernos y analizando los errores y aciertos de éstas, se ha desarrollado brevemente una campaña de cambio social propia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo parte con la intención de crear un entorno gráfico cómodo y amigable con el cual desarrollar la práctica relacionada con el estudio de las estrategias de estimación y compensación de movimiento aplicadas en los estándares de codificación dedeo, y que forma parte de la asignatura “Televisión” dede grado. Hasta ahora, se viene utilizado un entorno conocido como Cantata, proporcionado por Khoros, basado en la conexión de estructuras denominadas glifos a través de las cuales circula un flujo de datos (en nuestro caso, relacionado con el tratamiento de imágenes y vídeo). El presente trabajo adapta dicha estructura a las posibilidades gráficas de Matlab, incorporando, además, funcionalidades adicionales. En primer lugar, se expondrán los métodos de estimación y compensación que han sido programados en la herramienta desarrollada, así como las ventajas e inconvenientes asociados a cada uno de ellos. Dichos métodos de estimación y compensación de movimiento tratan de reducir la información a transmitir aprovechando la redundancia temporal presente entre las imágenes de una secuencia. El objetivo será establecer una correspondencia entre dos imágenes de una secuencia entre las que se ha producido un movimiento, calculando un conjunto de vectores en que representan dicho movimiento. Acto seguido, se describirán las claves de la interfaz gráfica desarrollada. En primer lugar se definirá el entorno gráfico habilitado por Khoros en el cual se ha desarrollado hasta ahora la práctica ya mencionada. Más tarde, introduciremos los aspectos más importantes para la creación de interfaces gráficas en Matlab, y se describirá brevemente una interfaz gráfica desarrollada anteriormente en el Grupo de Tratamiento de Imágenes (GTI) que ha sido tomada como referencia para el presente trabajo. Una vez presentado el entorno gráfico se describirán detalladamente los módulos elaborados para llevar a cabo la estimación y compensación de movimiento, además de otras funciones relacionadas con el tratamiento de imágenes y vídeo y la visualización de resultados. Por último, se propone un nuevo enunciado para la citada práctica, adaptado a la herramienta desarrollada y respetando, hasta donde ha sido posible, la estructura y objetivos docentes del enunciado original.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo fin de máster, titulado “ANÁLISIS DEL COMPORTAMIENTO MECÁNICO DE UN RACK DE BATERÍAS FRENTE A EVENTOS DE CHOQUE” fue desarrollado por el estudiante D. Javier Rivera Hoyos como proyecto final del Máster Universitario en Ingeniería Mecánica de la UPM y que estuvo bajo la tutoría del Dr. D. Luis Martínez, profesor y director de la Unidad de Biomecánica del INSIA-UPM. Este TFM se llevó a cabo en el desarrollo del proyecto europeo OPERA4FEV, el cual hace parte del 7º Programa Marco de la Comisión Europea realizado por diez entidades, de seis países diferentes, especializadas en diversos campos de la ingeniería, teniendo como objetivo, el proponer una solución alternativa que sea barata, ligera y versátil, que mejore la tecnología actual, la cual está basada en la utilización de racks metálicos para el empaquetamiento de las baterías de los vehículos eléctricos. Para cumplir con ese objetivo, se ha propuesto desarrollar un rack para baterías fabricado en un material termoplástico, además del rediseño de los componentes internos del mismo, con el cumpliendo de los requisitos normativos de seguridad exigidos para este tipo de dispositivos. El tema escogido para la elaboración del Trabajo Fin de Master, trata del análisis de la resistencia mecánica de un rack de baterías, el cual fue llevado a cabo mediante el uso de la técnica de los elementos finitos, empleando para ello la suite de HYPERWORWS, una serie de programas especializados en simulación que permite la creación de modelos de elementos finitos a partir de diseños CAD en 3D. Con el uso de estos programas fue posible la realización de ensayos virtuales los cuales permitieron la representación de las condiciones características de diferentes eventos de choque. Se siguió la metodología tradicional para el análisis por elementos finitos, que inicia con una geometría inicial creada en un programa CAD y la cual posteriormente es dividida en elementos finitos. A continuación, se procede a la asignación de cargas y condiciones de contorno completando el modelo y dejándolo preparado para el proceso de cálculo. Finalmente, los resultados fueron analizados y se tomaron las decisiones oportunas para llevar a cabo las modificaciones en el modelo que permitieran mejorar los resultados. Con este TFM se logró realizar la evaluación de una primera propuesta de diseño de un rack de baterías para un vehículo industrial tipo N2, determinando las áreas críticas de fallo y aportando soluciones para su mejoramiento.