58 resultados para OPNET Modeler
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica
Resumo:
Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies
Resumo:
The rapid growth of big cities has been noticed since 1950s when the majority of world population turned to live in urban areas rather than villages, seeking better job opportunities and higher quality of services and lifestyle circumstances. This demographic transition from rural to urban is expected to have a continuous increase. Governments, especially in less developed countries, are going to face more challenges in different sectors, raising the essence of understanding the spatial pattern of the growth for an effective urban planning. The study aimed to detect, analyse and model the urban growth in Greater Cairo Region (GCR) as one of the fast growing mega cities in the world using remote sensing data. Knowing the current and estimated urbanization situation in GCR will help decision makers in Egypt to adjust their plans and develop new ones. These plans should focus on resources reallocation to overcome the problems arising in the future and to achieve a sustainable development of urban areas, especially after the high percentage of illegal settlements which took place in the last decades. The study focused on a period of 30 years; from 1984 to 2014, and the major transitions to urban were modelled to predict the future scenarios in 2025. Three satellite images of different time stamps (1984, 2003 and 2014) were classified using Support Vector Machines (SVM) classifier, then the land cover changes were detected by applying a high level mapping technique. Later the results were analyzed for higher accurate estimations of the urban growth in the future in 2025 using Land Change Modeler (LCM) embedded in IDRISI software. Moreover, the spatial and temporal urban growth patterns were analyzed using statistical metrics developed in FRAGSTATS software. The study resulted in an overall classification accuracy of 96%, 97.3% and 96.3% for 1984, 2003 and 2014’s map, respectively. Between 1984 and 2003, 19 179 hectares of vegetation and 21 417 hectares of desert changed to urban, while from 2003 to 2014, the transitions to urban from both land cover classes were found to be 16 486 and 31 045 hectares, respectively. The model results indicated that 14% of the vegetation and 4% of the desert in 2014 will turn into urban in 2025, representing 16 512 and 24 687 hectares, respectively.
Resumo:
OPNET es una herramienta de simulación de redes muy potente, donde se puede configurar cualquier tipo de red existente. Esta herramienta nos ayuda a “probar” sin tener que montar ninguna red física, una gran ventaja sobre todo para protocolos experimentales o para el diseño de los mismos. En este proyecto se utiliza el OPNET para explotar el protocolo multicast PIM-SM. Se establecerá un modelo de red, donde estarán configurados los nodos de forma estratégica para intentar extraer el máximo de información del comportamiento en esta situación del protocolo PIM-SM.
Resumo:
Aquest projecte està centrat a analitzar els diferents escenaris i tecnologies per a proveir Internet i serveis de connectivitat entre ciutats internacionals (Barcelona, Tarragona, Lleida, Girona i Milà). Així es defineixen tres tipus de xarxes dissenyades per a satisfer els requisits dels nostres clients. Aquests clients són usuaris residencials i petites empreses, hospitals icompanyies d'assegurances internacionals. Tots ells requereixen de diferentample de banda, seguretat i tecnologies, per a cadascun d'ells, s'ha desenvolupat un anàlisi extens que detalla la xarxa lògica i física.Finalment, hem realitzat una simulació per ordinador utilitzant OPNET amb elpropòsit d'avaluar la xarxa física dissenyada prèviament. Els resultats obtinguts van ser presentats i analitzats.
Resumo:
Recent years have seen a surge in mathematical modeling of the various aspects of neuron-astrocyte interactions, and the field of brain energy metabolism is no exception in that regard. Despite the advent of biophysical models in the field, the long-lasting debate on the role of lactate in brain energy metabolism is still unresolved. Quite the contrary, it has been ported to the world of differential equations. Here, we summarize the present state of this discussion from the modeler's point of view and bring some crucial points to the attention of the non-mathematically proficient reader.
Resumo:
Transportation and warehousing are large and growing sectors in the society, and their efficiency is of high importance. Transportation also has a large share of global carbondioxide emissions, which are one the leading causes of anthropogenic climate warming. Various countries have agreed to decrease their carbon emissions according to the Kyoto protocol. Transportation is the only sector where emissions have steadily increased since the 1990s, which highlights the importance of transportation efficiency. The efficiency of transportation and warehousing can be improved with the help of simulations, but models alone are not sufficient. This research concentrates on the use of simulations in decision support systems. Three main simulation approaches are used in logistics: discrete-event simulation, systems dynamics, and agent-based modeling. However, individual simulation approaches have weaknesses of their own. Hybridization (combining two or more approaches) can improve the quality of the models, as it allows using a different method to overcome the weakness of one method. It is important to choose the correct approach (or a combination of approaches) when modeling transportation and warehousing issues. If an inappropriate method is chosen (this can occur if the modeler is proficient in only one approach or the model specification is not conducted thoroughly), the simulation model will have an inaccurate structure, which in turn will lead to misleading results. This issue can further escalate, as the decision-maker may assume that the presented simulation model gives the most useful results available, even though the whole model can be based on a poorly chosen structure. In this research it is argued that simulation- based decision support systems need to take various issues into account to make a functioning decision support system. The actual simulation model can be constructed using any (or multiple) approach, it can be combined with different optimization modules, and there needs to be a proper interface between the model and the user. These issues are presented in a framework, which simulation modelers can use when creating decision support systems. In order for decision-makers to fully benefit from the simulations, the user interface needs to clearly separate the model and the user, but at the same time, the user needs to be able to run the appropriate runs in order to analyze the problems correctly. This study recommends that simulation modelers should start to transfer their tacit knowledge to explicit knowledge. This would greatly benefit the whole simulation community and improve the quality of simulation-based decision support systems as well. More studies should also be conducted by using hybrid models and integrating simulations with Graphical Information Systems.
Resumo:
In the field of molecular biology, scientists adopted for decades a reductionist perspective in their inquiries, being predominantly concerned with the intricate mechanistic details of subcellular regulatory systems. However, integrative thinking was still applied at a smaller scale in molecular biology to understand the underlying processes of cellular behaviour for at least half a century. It was not until the genomic revolution at the end of the previous century that we required model building to account for systemic properties of cellular activity. Our system-level understanding of cellular function is to this day hindered by drastic limitations in our capability of predicting cellular behaviour to reflect system dynamics and system structures. To this end, systems biology aims for a system-level understanding of functional intraand inter-cellular activity. Modern biology brings about a high volume of data, whose comprehension we cannot even aim for in the absence of computational support. Computational modelling, hence, bridges modern biology to computer science, enabling a number of assets, which prove to be invaluable in the analysis of complex biological systems, such as: a rigorous characterization of the system structure, simulation techniques, perturbations analysis, etc. Computational biomodels augmented in size considerably in the past years, major contributions being made towards the simulation and analysis of large-scale models, starting with signalling pathways and culminating with whole-cell models, tissue-level models, organ models and full-scale patient models. The simulation and analysis of models of such complexity very often requires, in fact, the integration of various sub-models, entwined at different levels of resolution and whose organization spans over several levels of hierarchy. This thesis revolves around the concept of quantitative model refinement in relation to the process of model building in computational systems biology. The thesis proposes a sound computational framework for the stepwise augmentation of a biomodel. One starts with an abstract, high-level representation of a biological phenomenon, which is materialised into an initial model that is validated against a set of existing data. Consequently, the model is refined to include more details regarding its species and/or reactions. The framework is employed in the development of two models, one for the heat shock response in eukaryotes and the second for the ErbB signalling pathway. The thesis spans over several formalisms used in computational systems biology, inherently quantitative: reaction-network models, rule-based models and Petri net models, as well as a recent formalism intrinsically qualitative: reaction systems. The choice of modelling formalism is, however, determined by the nature of the question the modeler aims to answer. Quantitative model refinement turns out to be not only essential in the model development cycle, but also beneficial for the compilation of large-scale models, whose development requires the integration of several sub-models across various levels of resolution and underlying formal representations.
Resumo:
Le présent mémoire a pour objet les formes, les caractéristiques et les défis de la gouvernance des déchets électroniques. L’auteure explore les impactes socioéconomiques et environnementales de divers types d’instruments conçus pour mitiger les risques à la santé humaine et à l’environnement que présentent les produits électroniques en fin de vie, notamment: les traités multilatéraux qui visent à prohiber le transfert des déchets hasardeux au pays en développement, les législations régionales, nationales et provinciales mettant en vigueur des systèmes de recyclage obligatoire des déchets électroniques, ainsi que d’autres initiatives, publics et privées, basées sur le principe de la responsabilité élargie des producteurs (REP). L’objectif de ce travail est de comprendre comment les acteurs impliqués dans le commerce de l’équipement électronique peuvent modeler les systèmes de production, d’usage et du traitement fin de vie des technologies contemporaines pour que ces dernières puissent continuer à faire élever les standards de vie et à avancer le développement des communautés humaines, en respectant simultanément le principe international de l’équité globale, l’environnement naturel et la qualité de vie des générations futures.
Resumo:
In recent years, ‘agency’ has appeared in academic writings as a new way of referring to active involvement from below in development interventions. The concept of ‘agency’ starts from the assumption that people are actually agents themselves, continuously acting in and reacting to circumstances. In child labour activism, this concept has been applied to working children in the understanding that, in order to improve their working conditions, children should be organised in organizations that are exclusively for and (ideally) run by working children. This paper aims to evaluate the extent to which child labourers can become agents of change through their own organizations. The paper will draw on two studies carried out by the IREWOC foundation. In 2002 a study was undertaken in Bolivia to give practical meaning to the concept of child agency. Secondly, in 2004/2005 an investigation was carried out on the functioning and impact of children’s organizations in Peru, Bolivia and Brazil. The applied research methods were mainly anthropological and used participant observation, (semi-) informal interviews and group interviewing with working children, their parents and adult representatives of the working children’s organizations. Both investigations show that in focussing on children as active participants, the structural constraints under which children have to live also need to be highlighted. One needs to understand how material poverty, mental deprivation and disempowerment help to shape resilience and defiance, but also anger, distrust and marginalisation.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Cette thèse montre comment fonctionnent et se déploient, au sein des œuvres littéraires, filmiques et webfilmiques, des scénographies mémorielles et des figurations médiatiques de la guerre d’Algérie. Empruntant sa méthodologie à la sociocritique des textes et aux études intermédiales, l’étude porte sur la manière dont le souvenir de l’évènement se confond avec celle de le relater. Elle examine le rôle du médium qui donne une forme, une matérialité, un dispositif, un type de reconnaissance institutionnelle aux représentations de la guerre et de la mémoire, contribuant aussi à former, modeler le souvenir en le rendant perceptible et intelligible. Comment les groupes de mémoire de la guerre d’Algérie, (harkis, immigration algérienne, pieds-noirs) vivent-ils – toutes proportions et différences gardées – leur rapport au passé à partir du présent ? Leurs mémoires, médiées par les vecteurs culturels (cinéma, littérature, etc.), se disent à partir de sites d’énonciations plurielles dont les espaces (topographies) et les temps (chronographies) sont communs. Elles s’approprient le souvenir de façon similaire, par les scènes narratives du procès, de la rencontre ou du retour construites par le texte littéraire ou filmique. La première partie interroge les rapports entre histoire et mémoire ; en France, leurs conceptions et pratiques, se heurtent à une nouvelle économie mémorielle dans laquelle des groupes de mémoire de la guerre d’Algérie réclament que leur histoire soit reconnue et enseignée. Appuyée par une périodisation de la production gigantesque des cinquante dernières années et par une revue critique de la recherche internationale menée à ce sujet, cette réflexion prend acte de la dispute post-coloniale française et considère l’auteur porteur de mémoire de la guerre d’Algérie pour son exemplarité en tant que témoin post-colonial. Les deuxième, troisième et quatrième parties de cette thèse déplient quant à elles, la scénographie mémorielle spécifique à trois auteurs, tout en la mettant en relation avec d’autres œuvres de genre et médium très différents. Le premier corpus est composé de : Moze de Zahia Rahmani, du tryptique de Mehdi Charef (À-bras-le-cœur, 1962. Le dernier voyage, Cartouches gauloises) et d’Exils de Tony Gatlif. À ces titres s’ajoutent des œuvres qui marquent une série, ensemble aux contours flous auxquels ils se rattachent et qui permettent de mettre à la fois en perspective le commun entretenu entre la série et l’œuvre de l’un des trois auteurs, et la manière dont l’auteur, Rahmani, Charef ou Gatlif s’en distingue de façon significative. Enfin, un troisième type d’œuvres intervient dans l’analyse comme contrepoint souvent paradoxal de cette série.
Resumo:
Cette étude se penche sur les représentations des Néerlandais véhiculées par les chroniques missionnaires écrites par les religieux français de passage aux Antilles et sur la Côte Sauvage sud-américaine au XVIIe siècle et au début du XVIIIe siècle. En repérant et en analysant l’évolution de ces représentations, il appert que l’altérité néerlandaise était, entre 1640 et 1670, l’altérité européenne que les chroniqueurs religieux mettaient avantageusement de l’avant comme modèle de réussite économique et colonial pour modeler l’entreprise de colonisation française aux Antilles. C’est notamment le cas des écrits du dominicain Jean-Baptiste du Tertre (1654, 1667-1671), missionnaire bien au fait de l’altérité néerlandaise. Cependant, avec la marginalisation de la présence néerlandaise dans les Petites Antilles à la fin du xviie siècle, l’examen de la chronique de Jean-Baptiste Labat (1722) révèle que l’altérité néerlandaise a été remplacée par l’altérité anglaise lorsqu’il s’agit de proposer un modèle de réussite économique et colonial aux Français.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm