870 resultados para Agent-Based Models
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
The work presented in this thesis is regarding the development and evaluation of new bonding agents for short polyester fiber - polyurethane elastomer composites. The conventional bonding system based on hexamethylenetetramine, resorcinol and hydrated silica was not effective as a bonding agent for the composite, as the water eliminated during the formation of the RF resin hydrolysed the urethane linkages. Four bonding agents based on MDI/'I‘DI and polypropyleneglycol, propyleneglycol and glycerol were prepared and the composite recipe was optimised with respect to the cure characteristics and mechanical properties. The flow properties, stress relaxation pattern and the thermal degradation characteristics of the composites containing different bonding agents were then studied in detail to evaluate the new bonding systems. The optimum loading of resin was 5 phr and the ratio of the -01 to isocyanate was 1:1. The cure characteristics showed that the optimum combination of cure rate and processability was given by the composite with the resin based on polypropyleneglycol/ glycerol/ 4,4’diphenylmethanediisocynate (PPG/GL/MDI). From the rheological studies of the composites with and without bonding agents it was observed that all the composites showed pseudoplastic nature and the activation energy of flow of the composite was not altered by the presence of bonding agents. Mechanical properties such as tensile strength, modulus, tear resistance and abrasion resistance were improved in the presence of bonding agents and the effect was more pronounced in the case of abrasion resistance. The composites based on MDI/GL showed better initial properties while composites with resins based on MDI/PPG showed better aging resistance. Stress relaxation showed a multistage relaxation behaviour for the composite. Within the-strain levels studied, the initial rate of relaxation was higher and the cross over time was lesser for the composite containing bonding agents. The bonding agent based on MDI/PPG/GL was found to be a better choice for improving stress relaxation characteristics with better interfacial bonding. Thennogravimetirc analysis showed that the presence of fiber and bonding agents improved the thennal stability of the polyurethane elastomer marginally and it was maximum in the case of MDI / GL based bonding agents. The kinetics of degradation was not altered by the presence of bonding agents
Resumo:
The country has witnessed tremendous increase in the vehicle population and increased axle loading pattern during the last decade, leaving its road network overstressed and leading to premature failure. The type of deterioration present in the pavement should be considered for determining whether it has a functional or structural deficiency, so that appropriate overlay type and design can be developed. Structural failure arises from the conditions that adversely affect the load carrying capability of the pavement structure. Inadequate thickness, cracking, distortion and disintegration cause structural deficiency. Functional deficiency arises when the pavement does not provide a smooth riding surface and comfort to the user. This can be due to poor surface friction and texture, hydro planning and splash from wheel path, rutting and excess surface distortion such as potholes, corrugation, faulting, blow up, settlement, heaves etc. Functional condition determines the level of service provided by the facility to its users at a particular time and also the Vehicle Operating Costs (VOC), thus influencing the national economy. Prediction of the pavement deterioration is helpful to assess the remaining effective service life (RSL) of the pavement structure on the basis of reduction in performance levels, and apply various alternative designs and rehabilitation strategies with a long range funding requirement for pavement preservation. In addition, they can predict the impact of treatment on the condition of the sections. The infrastructure prediction models can thus be classified into four groups, namely primary response models, structural performance models, functional performance models and damage models. The factors affecting the deterioration of the roads are very complex in nature and vary from place to place. Hence there is need to have a thorough study of the deterioration mechanism under varied climatic zones and soil conditions before arriving at a definite strategy of road improvement. Realizing the need for a detailed study involving all types of roads in the state with varying traffic and soil conditions, the present study has been attempted. This study attempts to identify the parameters that affect the performance of roads and to develop performance models suitable to Kerala conditions. A critical review of the various factors that contribute to the pavement performance has been presented based on the data collected from selected road stretches and also from five corporations of Kerala. These roads represent the urban conditions as well as National Highways, State Highways and Major District Roads in the sub urban and rural conditions. This research work is a pursuit towards a study of the road condition of Kerala with respect to varying soil, traffic and climatic conditions, periodic performance evaluation of selected roads of representative types and development of distress prediction models for roads of Kerala. In order to achieve this aim, the study is focused into 2 parts. The first part deals with the study of the pavement condition and subgrade soil properties of urban roads distributed in 5 Corporations of Kerala; namely Thiruvananthapuram, Kollam, Kochi, Thrissur and Kozhikode. From selected 44 roads, 68 homogeneous sections were studied. The data collected on the functional and structural condition of the surface include pavement distress in terms of cracks, potholes, rutting, raveling and pothole patching. The structural strength of the pavement was measured as rebound deflection using Benkelman Beam deflection studies. In order to collect the details of the pavement layers and find out the subgrade soil properties, trial pits were dug and the in-situ field density was found using the Sand Replacement Method. Laboratory investigations were carried out to find out the subgrade soil properties, soil classification, Atterberg limits, Optimum Moisture Content, Field Moisture Content and 4 days soaked CBR. The relative compaction in the field was also determined. The traffic details were also collected by conducting traffic volume count survey and axle load survey. From the data thus collected, the strength of the pavement was calculated which is a function of the layer coefficient and thickness and is represented as Structural Number (SN). This was further related to the CBR value of the soil and the Modified Structural Number (MSN) was found out. The condition of the pavement was represented in terms of the Pavement Condition Index (PCI) which is a function of the distress of the surface at the time of the investigation and calculated in the present study using deduct value method developed by U S Army Corps of Engineers. The influence of subgrade soil type and pavement condition on the relationship between MSN and rebound deflection was studied using appropriate plots for predominant types of soil and for classified value of Pavement Condition Index. The relationship will be helpful for practicing engineers to design the overlay thickness required for the pavement, without conducting the BBD test. Regression analysis using SPSS was done with various trials to find out the best fit relationship between the rebound deflection and CBR, and other soil properties for Gravel, Sand, Silt & Clay fractions. The second part of the study deals with periodic performance evaluation of selected road stretches representing National Highway (NH), State Highway (SH) and Major District Road (MDR), located in different geographical conditions and with varying traffic. 8 road sections divided into 15 homogeneous sections were selected for the study and 6 sets of continuous periodic data were collected. The periodic data collected include the functional and structural condition in terms of distress (pothole, pothole patch, cracks, rutting and raveling), skid resistance using a portable skid resistance pendulum, surface unevenness using Bump Integrator, texture depth using sand patch method and rebound deflection using Benkelman Beam. Baseline data of the study stretches were collected as one time data. Pavement history was obtained as secondary data. Pavement drainage characteristics were collected in terms of camber or cross slope using camber board (slope meter) for the carriage way and shoulders, availability of longitudinal side drain, presence of valley, terrain condition, soil moisture content, water table data, High Flood Level, rainfall data, land use and cross slope of the adjoining land. These data were used for finding out the drainage condition of the study stretches. Traffic studies were conducted, including classified volume count and axle load studies. From the field data thus collected, the progression of each parameter was plotted for all the study roads; and validated for their accuracy. Structural Number (SN) and Modified Structural Number (MSN) were calculated for the study stretches. Progression of the deflection, distress, unevenness, skid resistance and macro texture of the study roads were evaluated. Since the deterioration of the pavement is a complex phenomena contributed by all the above factors, pavement deterioration models were developed as non linear regression models, using SPSS with the periodic data collected for all the above road stretches. General models were developed for cracking progression, raveling progression, pothole progression and roughness progression using SPSS. A model for construction quality was also developed. Calibration of HDM–4 pavement deterioration models for local conditions was done using the data for Cracking, Raveling, Pothole and Roughness. Validation was done using the data collected in 2013. The application of HDM-4 to compare different maintenance and rehabilitation options were studied considering the deterioration parameters like cracking, pothole and raveling. The alternatives considered for analysis were base alternative with crack sealing and patching, overlay with 40 mm BC using ordinary bitumen, overlay with 40 mm BC using Natural Rubber Modified Bitumen and an overlay of Ultra Thin White Topping. Economic analysis of these options was done considering the Life Cycle Cost (LCC). The average speed that can be obtained by applying these options were also compared. The results were in favour of Ultra Thin White Topping over flexible pavements. Hence, Design Charts were also plotted for estimation of maximum wheel load stresses for different slab thickness under different soil conditions. The design charts showed the maximum stress for a particular slab thickness and different soil conditions incorporating different k values. These charts can be handy for a design engineer. Fuzzy rule based models developed for site specific conditions were compared with regression models developed using SPSS. The Riding Comfort Index (RCI) was calculated and correlated with unevenness to develop a relationship. Relationships were developed between Skid Number and Macro Texture of the pavement. The effort made through this research work will be helpful to highway engineers in understanding the behaviour of flexible pavements in Kerala conditions and for arriving at suitable maintenance and rehabilitation strategies. Key Words: Flexible Pavements – Performance Evaluation – Urban Roads – NH – SH and other roads – Performance Models – Deflection – Riding Comfort Index – Skid Resistance – Texture Depth – Unevenness – Ultra Thin White Topping
Resumo:
Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.
Resumo:
We discuss a variety of object recognition experiments in which human subjects were presented with realistically rendered images of computer-generated three-dimensional objects, with tight control over stimulus shape, surface properties, illumination, and viewpoint, as well as subjects' prior exposure to the stimulus objects. In all experiments recognition performance was: (1) consistently viewpoint dependent; (2) only partially aided by binocular stereo and other depth information, (3) specific to viewpoints that were familiar; (4) systematically disrupted by rotation in depth more than by deforming the two-dimensional images of the stimuli. These results are consistent with recently advanced computational theories of recognition based on view interpolation.
Resumo:
This paper sketches a hypothetical cortical architecture for visual 3D object recognition based on a recent computational model. The view-centered scheme relies on modules for learning from examples, such as Hyperbf-like networks. Such models capture a class of explanations we call Memory-Based Models (MBM) that contains sparse population coding, memory-based recognition, and codebooks of prototypes. Unlike the sigmoidal units of some artificial neural networks, the units of MBMs are consistent with the description of cortical neurons. We describe how an example of MBM may be realized in terms of cortical circuitry and biophysical mechanisms, consistent with psychophysical and physiological data.
Resumo:
La gestión pública, tradicionalmente percibida como burocrática e ineficiente, tiende a evolucionar hacia modelos basados en la Nueva Gerencia Pública y el Gobierno Electrónico, que propenden por acercar los Estados a los ciudadanos y desarrollar con mayor eficiencia las actividades operativas a su cargo. En forma paralela, la Teoría de Restricciones, primordialmente aplicada a procesos productivos, busca optimizar los mismos para maximizar los resultados de las empresas, disponiendo de metodologías y herramientas de propósito específico. ¿Es posible entonces optimizar la operatividad de una entidad pública a través del uso de la TOC?. Mediante el presente trabajo se busca dar respuesta a este interrogante, a partir de las aproximaciones teóricas pertinentes y de su aplicación al caso particular de la CRC, entidad pública a cargo de la regulación sectorial de las Tecnologías de la Información y las Comunicaciones en Colombia.
Resumo:
El presente proyecto de investigación tiene como objetivo general evaluar la efectividad de los esfuerzos de una unidad de negocio particular de la compañía Novartis de Colombia S.A. en el área de la percepción de marca mediante un sistema de simulación que implementa una metodología para la medición de esta última. Se tiene en cuenta que contar con datos exactos acerca de cómo los clientes finales perciben una marca es un tarea dispendiosa y que aún no tiene una fórmula matemática, por lo tanto, es muy subjetivo el proceso de entender a los consumidores por parte de los directivos de la empresa. El proceso planea que por medio del procedimiento planteado que se basa en una simulación por computador y más concretamente con una modelación basada en agentes se permita acercar a las partes involucradas en el proceso de compra, es decir, la empresa involucrada, vendedores, clientes y finalmente clientes potenciales.
Resumo:
Cuando las empresas evalúan los resultados de su planeación estratégica y de mercadeo se enfrentan en numerosas ocasiones al escepticismo sobre cómo dicha planeación favoreció o afectó la percepción hacia la empresa y sus productos. Este proyecto propone por medio del uso de una herramienta de simulación computacional reducir el factor de incertidumbre de LG Electronics en el valor percibido de marca por la población de Bogotá D.C. en cada una de sus líneas de producto; el grado de inversión en mercadeo, publicidad, distribución y servicio. Para ello los consumidores son modelados como agentes inteligentes con poder de recomendación, quienes se basan principalmente en la experiencia generada por el producto y en el grado de influencia de las estrategias de mercadeo que afectan su decisión de compra, de preferencia y de permanencia. Adicionalmente se mide la retribución en utilidades y en recordación de marca de las inversiones en mercadeo que la compañía realiza.
Resumo:
Al hacer la evaluación de los resultados asociados con procesos de planeación estratégica y mercadeo en las empresas, la dirección enfrenta un cierto nivel de incertidumbre al no saber si estos planes afectaron positiva o negativamente la posición de la empresa en su entorno. El presente trabajo hace uso de una herramienta de simulación basada en agentes inteligentes para reducir el mencionado factor de incertidumbre, en este caso, para la empresa Corgranos S.A. Se espera modelar el comportamiento de los grupos poblacionales directa e indirectamente involucrados con la empresa para así afinar los esfuerzos que se efectúan sobre cada uno de ellos, siendo la diferencia entre las suposiciones iniciales y los resultados de la simulación el verdadero aporte del trabajo.
Resumo:
El presente proyecto de investigación tiene como objetivo general evaluar la efectividad de los esfuerzos en la percepción de una marca a través de la compañía “Distr & Co.” en Colombia, teniendo como fuente principal un sistema de simulación basado en agentes inteligentes; con el que se busca mejorar la metodología para medir el desempeño de una marca dada. El proceso plantea que por medio de la modelación basada en agentes se pueda dar acercamiento a las partes involucradas en los procesos de compra, es decir, la empresa, vendedores, clientes y finalmente clientes potenciales.
Resumo:
Este estudio busca mostrar la utilidad del modelado basado en agentes (MbA) para estudiar diferentes fenómenos sociales. Dicha herramienta economiza tiempo y recursos, permitiendo analizar muchas variables para posteriormente seleccionar las más significativas y proseguir así con la investigación. Lo anterior se ilustra con un modelo que analiza el tiempo requerido para encontrar y atender enfermos según sea su tratamiento: domiciliario u hospitalario, si el personal puede compartir o no información sobre localización de enfermos y si estos residen densamente o no. Los resultados revelan que compartir información acorta significativamente el tiempo sólo para tratamientos hospitalarios y que la densidad no tiene impacto. Concluimos que MbA tiene grandes ventajas para el diseño de investigaciones sociales y asiste a la toma de decisiones en contextos profesionales.
Resumo:
Hoy en día, el emprendimiento se ha convertido en uno de los factores esenciales para promover el desarrollo y fomentar la evolución de la sociedad a nivel mundial. Enfocándonos en Colombia y más específicamente en una población delimitada, el centro de emprendimiento de la Universidad del Rosario desarrolló un estudio que permitiera medir la caracterización del perfil emprendedor de sus estudiantes, éste con el objetivo de identificar diferentes variables que inciden en el entorno de los estudiantes al momento de edificar su perfil emprendedor. Por lo anterior, esta investigación se centró en realizar un análisis de la caracterización del comportamiento del perfil emprendedor de los estudiantes de Pregrado de la Facultad de Jurisprudencia de la Universidad del Rosario, la cual permitió comprender un perfil mucho más detallado a la luz de variables identificables. Para su desarrollo, se utilizó la herramienta homologada a nivel internacional conocida como "Características del Comportamiento Emprendedor" o CCE de EMPRETEC basándose en la teoría de McClelland donde se observaron los factores motivacionales que se asocian directamente al comportamiento emprendedor. La metodología usada permitió caracterizar el comportamiento de los estudiantes de la facultad de Jurisprudencia de 1° a 10° semestre mediante la evaluación de 10 factores asociados a necesidades de logro, poder y afiliación.
Resumo:
El presente trabajo de investigación fue realizado con el propósito de modelar el proceso de percepción de marca a partir del análisis de los componentes provenientes de la marca “Bodytech”, esto con el fin de simular el proceso de percepción de marca y evaluar la efectividad de la misma. El proceso que se modela es el de percepción – razonamiento – acción y se hace con el fin de evaluar los gastos en cada uno de los “componentes” que antes mencionaron Para realizar el análisis se hizo uso de un sistema de simulación basada en agentes, el cual recibe valores de diferentes variables analizadas por medio de tres herramientas: (1) un diagrama de grupos poblacionales, (2) un diagrama de desagregación de los núcleos temáticos de la marca y (3) las conclusiones obtenidas de una entrevista que se realizó a los responsables de gestionar la marca. Dicho proceso se lleva a cabo con el fin de poder determinar los valores relacionados al gasto en cada uno de los núcleos temáticos que llevan al sistema a evaluar la percepción de marca y la efectividad de estos gastos. Posteriormente, basados en los resultados del sistema de simulación, se obtiene un escenario que puede ser entendido y parcialmente predicho que le permitirán a Bodytech tener una herramienta de valoración de percepción de su marca.