1000 resultados para Modelos de simulación


Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presente Tesis Doctoral aborda la introducción de la Partición de Unidad de Bernstein en la forma débil de Galerkin para la resolución de problemas de condiciones de contorno en el ámbito del análisis estructural. La familia de funciones base de Bernstein conforma un sistema generador del espacio de funciones polinómicas que permite construir aproximaciones numéricas para las que no se requiere la existencia de malla: las funciones de forma, de soporte global, dependen únicamente del orden de aproximación elegido y de la parametrización o mapping del dominio, estando las posiciones nodales implícitamente definidas. El desarrollo de la formulación está precedido por una revisión bibliográfica que, con su punto de partida en el Método de Elementos Finitos, recorre las principales técnicas de resolución sin malla de Ecuaciones Diferenciales en Derivadas Parciales, incluyendo los conocidos como Métodos Meshless y los métodos espectrales. En este contexto, en la Tesis se somete la aproximación Bernstein-Galerkin a validación en tests uni y bidimensionales clásicos de la Mecánica Estructural. Se estudian aspectos de la implementación tales como la consistencia, la capacidad de reproducción, la naturaleza no interpolante en la frontera, el planteamiento con refinamiento h-p o el acoplamiento con otras aproximaciones numéricas. Un bloque importante de la investigación se dedica al análisis de estrategias de optimización computacional, especialmente en lo referente a la reducción del tiempo de máquina asociado a la generación y operación con matrices llenas. Finalmente, se realiza aplicación a dos casos de referencia de estructuras aeronáuticas, el análisis de esfuerzos en un angular de material anisotrópico y la evaluación de factores de intensidad de esfuerzos de la Mecánica de Fractura mediante un modelo con Partición de Unidad de Bernstein acoplada a una malla de elementos finitos. ABSTRACT This Doctoral Thesis deals with the introduction of Bernstein Partition of Unity into Galerkin weak form to solve boundary value problems in the field of structural analysis. The family of Bernstein basis functions constitutes a spanning set of the space of polynomial functions that allows the construction of numerical approximations that do not require the presence of a mesh: the shape functions, which are globally-supported, are determined only by the selected approximation order and the parametrization or mapping of the domain, being the nodal positions implicitly defined. The exposition of the formulation is preceded by a revision of bibliography which begins with the review of the Finite Element Method and covers the main techniques to solve Partial Differential Equations without the use of mesh, including the so-called Meshless Methods and the spectral methods. In this context, in the Thesis the Bernstein-Galerkin approximation is subjected to validation in one- and two-dimensional classic benchmarks of Structural Mechanics. Implementation aspects such as consistency, reproduction capability, non-interpolating nature at boundaries, h-p refinement strategy or coupling with other numerical approximations are studied. An important part of the investigation focuses on the analysis and optimization of computational efficiency, mainly regarding the reduction of the CPU cost associated with the generation and handling of full matrices. Finally, application to two reference cases of aeronautic structures is performed: the stress analysis in an anisotropic angle part and the evaluation of stress intensity factors of Fracture Mechanics by means of a coupled Bernstein Partition of Unity - finite element mesh model.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar la aproximación a los fenómenos de transporte térmico en edificación acristalada a través de sus réplicas a escala. La tarea central de esta tesis es, por lo tanto, la comparación del comportamiento térmico de modelos a escala con el correspondiente comportamiento térmico del prototipo a escala real. Los datos principales de comparación entre modelo y prototipo serán las temperaturas. En el primer capítulo del Estado del Arte de esta tesis se hará un recorrido histórico por los usos de los modelos a escala desde la antigüedad hasta nuestro días. Dentro de éste, en el Estado de la Técnica, se expondrán los beneficios que tiene su empleo y las dificultades que conllevan. A continuación, en el Estado de la Investigación de los modelos a escala, se analizarán artículos científicos y tesis. Precisamente, nos centraremos en aquellos modelos a escala que son funcionales. Los modelos a escala funcionales son modelos a escala que replican, además, una o algunas de las funciones de sus prototipos. Los modelos a escala pueden estar distorsionados o no. Los modelos a escala distorsionados son aquellos con cambios intencionados en las dimensiones o en las características constructivas para la obtención de una respuesta específica por ejemplo, replicar el comportamiento térmico. Los modelos a escala sin distorsión, o no distorsionados, son aquellos que mantienen, en la medida de lo posible, las proporciones dimensionales y características constructivas de sus prototipos de referencia. Estos modelos a escala funcionales y no distorsionados son especialmente útiles para los arquitectos ya que permiten a la vez ser empleados como elementos funcionales de análisis y como elementos de toma de decisiones en el diseño constructivo. A pesar de su versatilidad, en general, se observará que se han utilizado muy poco estos modelos a escala funcionales sin distorsión para el estudio del comportamiento térmico de la edificación. Posteriormente, se expondrán las teorías para el análisis de los datos térmicos recogidos de los modelos a escala y su aplicabilidad a los correspondientes prototipos a escala real. Se explicarán los experimentos llevados a cabo, tanto en laboratorio como a intemperie. Se han realizado experimentos con modelos sencillos cúbicos a diferentes escalas y sometidos a las mismas condiciones ambientales. De estos modelos sencillos hemos dado el salto a un modelo reducido de una edificación acristalada relativamente sencilla. Los experimentos consisten en ensayos simultáneos a intemperie del prototipo a escala real y su modelo reducido del Taller de Prototipos de la Escuela Técnica Superior de Arquitectura de Madrid (ETSAM). Para el análisis de los datos experimentales hemos aplicado las teorías conocidas, tanto comparaciones directas como el empleo del análisis dimensional. Finalmente, las simulaciones nos permiten comparaciones flexibles con los datos experimentales, por ese motivo, hemos utilizado tanto programas comerciales como un algoritmo de simulación desarrollado ad hoc para esta investigación. Finalmente, exponemos la discusión y las conclusiones de esta investigación. Abstract The purpose of this thesis is to study the approximation to phenomena of heat transfer in glazed buildings through their scale replicas. The central task of this thesis is, therefore, the comparison of the thermal performance of scale models without distortion with the corresponding thermal performance of their full-scale prototypes. Indoor air temperatures of the scale model and the corresponding prototype are the data to be compared. In the first chapter on the State of the Art, it will be shown a broad vision, consisting of a historic review of uses of scale models, from antiquity to our days. In the section State of the Technique, the benefits and difficulties associated with their implementation are presented. Additionally, in the section State of the Research, current scientific papers and theses on scale models are reviewed. Specifically, we focus on functional scale models. Functional scale models are scale models that replicate, additionally, one or some of the functions of their corresponding prototypes. Scale models can be distorted or not. Scale models with distortion are considered scale models with intentional changes, on one hand, in dimensions scaled unevenly and, on the other hand, in constructive characteristics or materials, in order to get a specific performance for instance, a specific thermal performance. Consequently, scale models without distortion, or undistorted scale models scaled evenly, are those replicating, to the extent possible, without distortion, the dimensional proportions and constructive configurations of their prototypes of reference. These undistorted and functional scale models are especially useful for architects because they can be used, simultaneously, as functional elements of analysis and as decision-making elements during the design. Although they are versatile, in general, it is remarkable that these types of models are used very little for the study of the thermal performance of buildings. Subsequently, the theories related to the analysis of the experimental thermal data collected from the scale models and their applicability to the corresponding full-scale prototypes, will be explained. Thereafter, the experiments in laboratory and at outdoor conditions are detailed. Firstly, experiments carried out with simple cube models at different scales are explained. The prototype larger in size and the corresponding undistorted scale model have been subjected to same environmental conditions in every experimental test. Secondly, a step forward is taken carrying out some simultaneous experimental tests of an undistorted scale model, replica of a relatively simple lightweight and glazed building construction. This experiment consists of monitoring the undistorted scale model of the prototype workshop located in the School of Architecture (ETSAM) of the Technical University of Madrid (UPM). For the analysis of experimental data, known related theories and resources are applied, such as, direct comparisons, statistical analyses, Dimensional Analysis and last, but not least important, simulations. Simulations allow us, specifically, flexible comparisons with experimental data. Here, apart the use of the simulation software EnergyPlus, a simulation algorithm is developed ad hoc for this research. Finally, the discussion and conclusions of this research are exposed.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El tráfico rodado es un fenómeno importante en las sociedades modernas, de ahí la relevancia de su estudio. La complejidad de las relaciones entre los individuos y otros objetos involucrados en él, junto a la cantidad y variedad de variables y parámetros que le afectan, hacen que su análisis en un entorno real sea muy complejo y costoso. Las simulaciones de tráfico son una herramienta para abordar este problema. Permiten reducir la cantidad de datos reales a considerar y simplificar la complejidad de ciertas operaciones, y ofrecen un entorno controlado donde realizar los experimentos. Sin embargo, las simulaciones tienen también sus inconvenientes. Los modelos más genéricos requieren simplificaciones muy importantes que los alejan de la realidad plausible, centrándose en muy pocas características. Los modelos que consideran más factores deben ser muy específicos para conseguir mantener tratable su especificación, análisis y complejidad computacional. Además, el desarrollo de estas simulaciones suele requerir expertos con diferentes perfiles (por ejemplo, en tráfico y en las plataformas de simulación). Esta heterogeneidad causa frecuentemente problemas de comunicación y comprensión en los equipos de desarrollo...

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La gran mayoría de modelos matemáticos propuestos hasta la fecha para simular la propagación del malware están basados en el uso de ecuaciones diferenciales. Dichos modelos son analizados de manera crítica en este trabajo, determinando las principales deficiencias que presentan y planteando distintas alternativas para su subsanación. En este sentido, se estudia el uso de los autómatas celulares como nuevo paradigma en el que basar los modelos epidemiológicos, proponiendo una alternativa explícita basada en ellos a un reciente modelo continuo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este trabajo se realizan simulaciones de excavaciones profundas en suelos de origen aluvial en la ciudad de Sabaneta, mediante el empleo de modelos en elementos finitos integrados por el software PLAXIS® -- Los desplazamientos horizontales son comparados con mediciones de inclinómetros instalados en el trasdós del muro diafragma anclado del proyecto Centro Comercial Mayorca Fase III, localizado en el municipio de Sabaneta, Antioquia -- Finalmente, se concluye acerca de la sensibilidad de los parámetros más relevantes según el modelo constitutivo empleado y la viabilidad en su aplicación para la solución del problema evaluado

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Debido a la carencia de tácticas de control alternativas factibles y económicamente viables, los insecticidas constituyen el instrumento más ampliamente aceptado por los agricultores, a pesar de las graves consecuencias que pueden derivar de su uso indiscriminado. El presente Proyecto Marco apunta a optimizar los criterios de decisión sobre el control de plagas, con particular referencia a la aplicación de insecticidas, en términos de la economía del agricultor y de la salud ambiental, en el contexto de la sustentabilidad de los sistemas productivos. El objetivo general es desarrollar un sistema cuantitativo de apoyo a la toma de decisiones sobre manejo de plagas, basado en el conocimiento de la interacción entre cultivos, plagas, enemigos naturales, y variables climáticas y económicas. El Proyecto Marco se divide en los módulos, Soja y Maíz, cada uno de los cuales consiste en diversos planes de trabajo: 1) Influencia de la interacción "densidad de anticarsia gemmatalis-fenología del cultivo soja" en el rendimiento; 2) caracterización del patrón espacial de orugas defoliadoras de soja y diseño de planes de monitoreo; 3) epizootiología de hongos patógenos defoliadores en cultivos de soja bajo condiciones de riego y secano; 4) Modelos de predicción del patrón temporal de abundancia de lepidópteros plaga de soja y maíz, en base a variables climáticas. Los correspondientes objetivos específicos son (Primer año): 1.a) Ajustar la técnica de simulación de defoliación con perforador manual. 1.b) Obtener información preliminar para la caracterización cuantitativa de la relación "densidad de plaga-fenología-rendimiento del cultivo de soja". 2.a) Describir el grado de agregación de las plagas. 2.b) Estudiar la relación densidad de plaga-distancia al perímetro del cultivo. 3.a) Describir las epizootias de hongos patógenos de orugas defoliadoras de soja. 3.b) Desarrollar un modelo de simulación para explorar la dinámica de las epixotias. 4) Ajustar modelos predictivos preliminares con la base de datos climáticos y de abundancia de lepidópteros disponibles en la EEA Manfredi (INTA).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la presente memoria se ha recogido de forma escrita el conjunto de fases que se han llevado a cabo en la realización del proyecto consistente en un simulador de sistemas biológicos utilizando modelos orientados al individuo. Concretamente, el sistema biológico representado ha consistido en el movimiento y comportamiento de cohesión que poseen los peces.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los servicios de salud son sistemas muy complejos, pero de alta importancia, especialmente en algunos momentos críticos, en todo el mundo. Los departamentos de urgencias pueden ser una de las áreas más dinámicas y cambiables de todos los servicios de salud y a la vez más vulnerables a dichos cambios. La mejora de esos departamentos se puede considerar uno de los grandes retos que tiene cualquier administrador de un hospital, y la simulación provee una manera de examinar este sistema tan complejo sin poner en peligro los pacientes que son atendidos. El objetivo de este trabajo ha sido el modelado de un departamento de urgencias y el desarrollo de un simulador que implementa este modelo con la finalidad de explorar el comportamiento y las características de dicho servicio de urgencias. El uso del simulador ofrece la posibilidad de visualizar el comportamiento del modelo con diferentes parámetros y servirá como núcleo de un sistema de ayuda a la toma de decisiones que pueda ser usado en departamentos de urgencias. El modelo se ha desarrollado con técnicas de modelado basado en agentes (ABM) que permiten crear modelos funcionalmente más próximos a la realidad que los modelos de colas o de dinámicas de sistemas, al permitir la inclusión de la singularidad que implica el modelado a nivel de las personas. Los agentes del modelo presentado, descritos internamente como máquinas de estados, representan a todo el personal del departamento de urgencias y los pacientes que usan este servicio. Un análisis del modelo a través de su implementación en el simulador muestra que el sistema se comporta de manera semejante a un departamento de urgencias real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La predicción de incendios forestales es uno de los grandes retos de la comunidad científica debido al impacto medioambiental, humano y económico que tienen en la sociedad. El comportamiento de este fenómeno es difícil de modelar debido a la gran cantidad de variables que intervienen y la dificultad que implica su correcta medición. Los simuladores de fuego son herramientas muy útiles pero, actualmente, los resultados que obtenemos tienen un alto grado de imprecisión. Desde nuestro grupo se ha trabajado en la predicción en dos etapas, donde antes de realizar cualquier predicción, se incorpora una etapa de ajuste de los parámetros de entrada para obtener mejores predicciones. Pese a la mejora que supone este nuevo paradigma de predicción, las simulaciones sobre incendios reales tienen un alto grado de error por el efecto de las condiciones meteorológicas que, usualmente, varían de manera notable durante el transcurso de la simulación. Uno de los factores más determinantes en el comportamiento de un incendio, junto con las características del terreno, es el viento. Los modelos de predicción son extremadamente sensibles al cambio en los componentes de dirección y velocidad del viento por lo que cualquier mejora que podamos introducir para mejorar la calidad de estas componentes influye directamente en la calidad de la predicción. Nuestro sistema de predicción utiliza la dirección y velocidad del viento de forma global en todo el terreno, y lo que proponemos con este trabajo es introducir un modelo de vientos que nos permita generar vientos locales en todas las celdas en las que se divide el terreno. Este viento local dependedel viento general y de las características del terreno de dichas celdas. Consideramos que la utilización de un viento general no es suficiente para realizar una buena predicción del comportamiento de un incendio y hemos comprobado que la inclusión de un simulador de campo de vientos en nuestro sistema puede llegar a mejorar nuestras predicciones considerablemente. Los resultados obtenidos en los experimentos sintéticos que hemos realizado nos hacen ser optimistas, puesto que consideramos que la inclusión de componentes de viento locales permitirá mejorar nuestras predicciones en incendios reales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente grupo ha recorrido ya un largo camino trabajando en el estudio de sistemas enzimáticos, diseño y simulación de biorreactores con enzimas en soluble e inmovilizadas, comprobando la seria dificultad de separación y eliminación de las mismas en la etapa final del proceso, así como las problemáticas de preparación y uso de las enzimas inmovilizadas en los mas diversos tipos de soportes. En este estudio se investigo la aplicación de ultrafiltración y ósmosis inversa en soluciones modelo de zumos para su clarificación y concentración, también en la eliminación de melanoidinas en concentrados de zumos. A partir de esta investigación se elaboraron membranas con enzimas pectinoliticas inmovilizadas. Al igual que se determino las condiciones óptimas de aplicación en sistemas modelo a escala de laboratorio y planta piloto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Proyecto centrado en la simulación informática de modelos para la creación y modificaciones de una línea de ferrocarriles (tanto de paradas, intercambiadores como las infraestructura que los componen). Se utiliza Anylogic ya que cumple con los requisitos que se necesitan para la realización del modelo en realización prestaciones-precio, además, nos permite la importación y exportación de los datos para la generación de las entradas y estudio de las salidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Formar a los psicólogos en programación. Servir de introducción en entornos informáticos no clásicos, como el desarrollo de programas con interacción inteligente. Estudio del desarrollo del prototipo de sistema informático SPICP (Sistema de Programación Interactiva en el Campo de la Psicología-, orientado a la formación de los psicólogos. Aplicación del mismo a estudiantes de Psicología de la Universidad de Oviedo. Se basa en el sistema de utilización 'vertical' del software educativo, donde un mismo paquete de programas es utilizado en cursos de diferentes niveles de dificultad. Dicho sistema consta de tres fases: un primer nivel donde los alumnos manejan programas ya creados con objeto de observar las posibilidades que ofrecen en el campo estadístico; un segundo nivel donde se estudian y modifican los programas y subrutinas existentes; y un tercer nivel donde ya desarrollan programas propios. Bibliografía. Ordenadores y programas informáticos en lenguaje Basic y/o Fortran. Estudio de las copias literales de las sesiones mantenidas por cada alumno, generadas por un mecanismo creado ad hoc. En la primera parte de la tesis se describen las aplicaciones del ordenador al campo de la Educación y la Psicología. Con respecto a la Educación, se describen las características de los lenguajes utilizados y algunos sistemas expertos como por ejemplo la base de datos Geobase. Con respecto a la Psicología, se describen: las aplicaciones prácticas del ordenador para hacer análisis estadísticos, controlar, recoger, almacenar y consultar información y hacer diagnósticos psicológicos; sus aplicaciones teóricas y, por último, algunos sistemas y programas que sirven como introductores al uso de la informática dentro del campo de la Psicología de forma general -Eureka, Items, Psychnet, SPSSX-l, etc.-. En la segunda parte se explica cómo crear y utilizar sistemas interactivos en programas estadísticos, en modelos simulados por ordenador y en el uso del paquete SPSS. En los tres casos se describen tanto los programas centrales como los secundarios. Por último se describe el funcionamiento y características de un entorno de programación destinado a crear sistemas expertos, y se añade un listado parcial de programas que constituyen algunos de dichos sistemas: 1st-Class-Advisor, Qnucleo, Qvarlist, Qttest, Se1, Se2. Se comprueba que el uso del sistema interactivo consigue que los alumnos manejen los programas adecuadamente en un lapso de tiempo menor que el que necesitan para hacerse con el manejo de un paquete estadístico tradicional. Durante este estudio se obtuvo además, información sobre la demanda de formación informática por parte de los alumnos de Psicología, comprobándose la incapacidad del Departamento para dar un acceso mayoritario a dicha formación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ejemplos y modelos son instrumentos habituales de los docentes para contextualizar la Ciencia y uno de los principales tipos de modelos son las analogías. El proceso de enseñanza- aprendizaje lleva implícito la comprensión y el razonamiento y para tal fin, la elaboración de modelos. La comprensión supone la construcción de un modelo mental que es particular para cada uno de los alumnos. Sin embargo, cuando un alumno se encuentra frente a un concepto teórico y abstracto para el que no existen ejemplos perceptibles en el entorno, la construcción de un modelo de comprensión puede no ser una tarea sencilla y se facilita ofreciendo uno inicial, ya confeccionado, en forma de comparación. Este modelo de comprensión es el objetivo de la analogía. La analogía es, por tanto, un intento más de modelizar en aras del aprendizaje. Puede considerarse como un recurso didáctico útil para aplicar en los procesos de enseñanza-aprendizaje. Facilita la visualización de los conceptos teórico-abstractos, facilita el recuerdo de la información y su contextualización y aporta una disposición positiva hacia el aprendizaje. Permite construir el conocimiento y desarrollar el pensamiento creativo. La analogía conecta el nuevo conocimiento con el que ya tienen los alumnos. Y se debe averiguar en primer lugar el conocimiento que poseen los alumnos para conectarlo posteriormente con el nuevo concepto a aprender. De esta manera se posibilita que cada uno de los alumnos adquiera un modelo mental inicial que sirva de base para organizar la información de lo que va aprendiendo. Las analogías pictóricas pueden mostrar objetos reales, pero se refieren a otras cosas que el contenido para el que aparecen en el texto. Es decir, aunque se utilizan para explicar un determinado concepto o tópico, hacen referencia a un tema que en principio no guarda relación con el. Con frecuencia las analogías pictóricas pueden contener algún elemento humorístico o de simulación que la hacen parecer más atractiva. Docentes y editores de libros de texto utilizan las analogías sin profundizar en el análisis de su eficacia para el aprendizaje. Tras estudiar 84 libros de texto de Ciencias para estudiantes entre 12 y 18 años, la distribución de analogías pictóricas, verbales y pictórico-verbales en los distintos niveles y asignaturas muestra disparidades entre los resultados de las investigaciones didácticas y su uso en la práctica. Las conclusiones incluyen recomendaciones para la adecuada utilización de las analogías tanto para docentes como para editores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La creación del Laboratorio de Modelamiento y Simulación (LMyS) se lleva a cabo con el objeto de adelantar investigación original y apoyar los proyectos en desarrollo dentro de la Facultad de Administración, mediante el modelamiento desde las ciencias de la complejidad y la matemática no clásica. Este desarrollo obedece a la necesidad de dar respuestas a la realidad cambiante y dinámica en la que los modelos tradicionales no han dado una respuesta satisfactoria o suficiente. Gracias al LMyS se materializan los avances y desarrollos de los grupos de investigación de la Facultad a través del modelamiento y simulación con lógicas no-clásicas (modal, difusa, paraconsistente y lógica cuántica, entre otras), que permitan posteriormente producir a nivel computacional implementaciones de estos modelos. De este modo, mediante las contribuciones del LMyS se busca que, por un lado, exista innovación en el conocimiento con el rigor apropiado y a niveles mundiales en el estudio de los sistemas dinámicos modelados a partir de las organizaciones, y, por otro, se erija como una herramienta para el sector empresarial y productivo en los procesos de toma de decisión. Al mismo tiempo que adelanta investigaciones que conducen a, y se condensan en, registros y patentes, el LMyS quiere contribuir al apoyo a la investigación en la disciplina de la administración. Así, el LMyS hace parte del gran proyecto de la Facultad de Administración de la Universidad del Rosario que le permitirá abordar problemáticas actuales y futuras, en torno a la dinámica económica y social, pero con enfoques igualmente políticos, financieros y otros en el marco de un mundo caracterizado por una enorme complejidad (creciente). El desarrollo de la investigación de la Facultad de Administración tiene como una gran influencia las ciencias de la complejidad, tratando de entregar a la comunidad empresarial herramientas, modelos o perspectivas diferentes que le permitan enfrentar la incertidumbre y disminuir los niveles de riesgo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proyecto de investigación parte de la dinámica del modelo de distribución tercerizada para una compañía de consumo masivo en Colombia, especializada en lácteos, que para este estudio se ha denominado “Lactosa”. Mediante datos de panel con estudio de caso, se construyen dos modelos de demanda por categoría de producto y distribuidor y mediante simulación estocástica, se identifican las variables relevantes que inciden sus estructuras de costos. El problema se modela a partir del estado de resultados por cada uno de los cuatro distribuidores analizados en la región central del país. Se analiza la estructura de costos y el comportamiento de ventas dado un margen (%) de distribución logístico, en función de las variables independientes relevantes, y referidas al negocio, al mercado y al entorno macroeconómico, descritas en el objeto de estudio. Entre otros hallazgos, se destacan brechas notorias en los costos de distribución y costos en la fuerza de ventas, pese a la homogeneidad de segmentos. Identifica generadores de valor y costos de mayor dispersión individual y sugiere uniones estratégicas de algunos grupos de distribuidores. La modelación con datos de panel, identifica las variables relevantes de gestión que inciden sobre el volumen de ventas por categoría y distribuidor, que focaliza los esfuerzos de la dirección. Se recomienda disminuir brechas y promover desde el productor estrategias focalizadas a la estandarización de procesos internos de los distribuidores; promover y replicar los modelos de análisis, sin pretender remplazar conocimiento de expertos. La construcción de escenarios fortalece de manera conjunta y segura la posición competitiva de la compañía y sus distribuidores.