7 resultados para Algoritmo computacional
em Universidad del Rosario, Colombia
Resumo:
Cuando las empresas evalúan los resultados de su planeación estratégica y de mercadeo se enfrentan en numerosas ocasiones al escepticismo sobre cómo dicha planeación favoreció o afectó la percepción hacia la empresa y sus productos. Este proyecto propone por medio del uso de una herramienta de simulación computacional reducir el factor de incertidumbre de LG Electronics en el valor percibido de marca por la población de Bogotá D.C. en cada una de sus líneas de producto; el grado de inversión en mercadeo, publicidad, distribución y servicio. Para ello los consumidores son modelados como agentes inteligentes con poder de recomendación, quienes se basan principalmente en la experiencia generada por el producto y en el grado de influencia de las estrategias de mercadeo que afectan su decisión de compra, de preferencia y de permanencia. Adicionalmente se mide la retribución en utilidades y en recordación de marca de las inversiones en mercadeo que la compañía realiza.
Resumo:
Al hacer la evaluación de los resultados asociados con procesos de planeación estratégica y mercadeo en las empresas, la dirección enfrenta un cierto nivel de incertidumbre al no saber si estos planes afectaron positiva o negativamente la posición de la empresa en su entorno. El presente trabajo hace uso de una herramienta de simulación basada en agentes inteligentes para reducir el mencionado factor de incertidumbre, en este caso, para la empresa Corgranos S.A. Se espera modelar el comportamiento de los grupos poblacionales directa e indirectamente involucrados con la empresa para así afinar los esfuerzos que se efectúan sobre cada uno de ellos, siendo la diferencia entre las suposiciones iniciales y los resultados de la simulación el verdadero aporte del trabajo.
Resumo:
El texto está dividido en tres partes. En la primera, se explica en términos generales cómo funcionan los MBAs y las redes neuronales artificiales, sobre las que se construye el modelo en el que se basa esta investigación. En la segunda parte, se presentan los fundamentos teóricos del modelo de Acerbi y Parisi, su arquitectura y se verifican las conclusiones mediante la replicación del modelo. Por último, se explican los fundamentos teóricos de la transmisión por sanción y la manera en que esta forma de transmisión cultural puede ser implementada modificando el modelo computacional inicial, para luego analizar los resultados de su implementación en el modelo y su simulación.
Resumo:
Contexto: la esquizofrenia es un síndrome complejo relacionado con genes y factores de riesgo no genéticos. Estudios epidemiológicos reconocidos reportan su presencia en todas las culturas y regiones geográficas. En este sentido, las Hipótesis Etiológicas Unificadas enfrentan simultáneamente el desafío de presentar los datos experimentales y demostrar que éstos dan cuenta del perfil universal del síndrome. Objetivos: revisar sistemáticamente las más prominentes Hipótesis Etiológicas Unifi - cadas, así como la distribución semántica de los hallazgos genéticos (mediante técnicas de minería de datos) y proponer un nuevo modelo, basado en los efectos dinámicos de carácter epigenético sobre la activación genética en el neurodesarrollo y la pubertad. Resultados: de manera general, las Hipótesis Etiológicas Unificadas contradicen los principales hallazgos genéticos (que sugieren que la esquizofrenia está asociada al perfil de neurotransmisores como D-1 y la cascada Glutamato-NMDA); también, por regla general, los hallazgos genéticos se encuentran esparcidos por todo el genoma (tal como revelamos en un mapa topológico de los 3519 estudios en el asunto). La clave para este estado complejo de cosas puede estar representada por la asociación entre la perspectiva de que cada polimorfismo asociado a la esquizofrenia representa un factor de riesgo estadístico (es decir, aumentando el riesgo de inestabilidades del desarrollo), mientras que las cascadas moleculares de carácter epigenético y los factores de riesgo ambientales permanecen actuantes mediante la activación de genes en períodos críticos.
Resumo:
Se presenta el análisis de sensibilidad de un modelo de percepción de marca y ajuste de la inversión en marketing desarrollado en el Laboratorio de Simulación de la Universidad del Rosario. Este trabajo de grado consta de una introducción al tema de análisis de sensibilidad y su complementario el análisis de incertidumbre. Se pasa a mostrar ambos análisis usando un ejemplo simple de aplicación del modelo mediante la aplicación exhaustiva y rigurosa de los pasos descritos en la primera parte. Luego se hace una discusión de la problemática de medición de magnitudes que prueba ser el factor más complejo de la aplicación del modelo en el contexto práctico y finalmente se dan conclusiones sobre los resultados de los análisis.
Resumo:
El presente trabajo de investigación fue realizado con el propósito de modelar el proceso de percepción de marca a partir del análisis de los componentes provenientes de la marca “Bodytech”, esto con el fin de simular el proceso de percepción de marca y evaluar la efectividad de la misma. El proceso que se modela es el de percepción – razonamiento – acción y se hace con el fin de evaluar los gastos en cada uno de los “componentes” que antes mencionaron Para realizar el análisis se hizo uso de un sistema de simulación basada en agentes, el cual recibe valores de diferentes variables analizadas por medio de tres herramientas: (1) un diagrama de grupos poblacionales, (2) un diagrama de desagregación de los núcleos temáticos de la marca y (3) las conclusiones obtenidas de una entrevista que se realizó a los responsables de gestionar la marca. Dicho proceso se lleva a cabo con el fin de poder determinar los valores relacionados al gasto en cada uno de los núcleos temáticos que llevan al sistema a evaluar la percepción de marca y la efectividad de estos gastos. Posteriormente, basados en los resultados del sistema de simulación, se obtiene un escenario que puede ser entendido y parcialmente predicho que le permitirán a Bodytech tener una herramienta de valoración de percepción de su marca.
Resumo:
Las teorías administrativas se han basado, casi sin excepción, en los fundamentos y los modelos de la ciencia clásica (particularmente, en los modelos de la física newtoniana). Sin embargo, las organizaciones actualmente se enfrentan a un mundo globalizado, plagado de información (y no necesariamente conocimiento), hiperconectado, dinámico y cargado de incertidumbre, por lo que muchas de las teorías pueden mostrar limitaciones para las organizaciones. Y quizá no por la estructura, la lógica o el alcance de las mismas, sino por la falta de criterios que justifiquen su aplicación. En muchos casos, las organizaciones siguen utilizando la intuición, las suposiciones y las verdades a medias en la toma de decisiones. Este panorama pone de manifiesto dos hechos: de un lado, la necesidad de buscar un método que permita comprender las situaciones de cada organización para apoyar la toma de decisiones. De otro lado, la necesidad de potenciar la intuición con modelos y técnicas no tradicionales (usualmente provenientes o inspiradas por la ingeniería). Este trabajo busca anticipar los pilares de un posible método que permita apoyar la toma de decisiones por medio de la simulación de modelos computacionales, utilizando las posibles interacciones entre: la administración basada en modelos, la ciencia computacional de la organización y la ingeniería emergente.