21 resultados para Random-walk betweenness

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le cadre de la recherche d’appui à la phase III du projet huile de palme rouge (HPR) au Burkina Faso, une étude de base a porté sur 150 femmes de la zone de production échantillonnées par la méthode aléatoire géographique. Leur statut en vitamine A (VA) a été évalué par HPLC et leurs apports alimentaires par un questionnaire de fréquence de consommation. Les connaissances, les perceptions, les habitudes d’utilisation et de consommation de l’HPR ont été explorées par un questionnaire pré-testé administré au domicile des participantes. Une étude comparative sur la qualité nutritionnelle, physico-chimique, microbiologique et sensorielle de 13 échantillons d’HPR de différentes provenances a été également réalisée. La prévalence de faibles rétinolémies était de 10,7% et les apports en VA provenaient à 90% des aliments d’origine végétale. Seules 5,9% des femmes productrices présentaient une faible rétinolémie, comparativement à 20,8% des femmes non-productrices d’HPR. Les échantillons d’HPR présentaient un profil satisfaisant mais quelques-uns étaient limites au plan microbiologique. En outre, aucun échantillon ne se distinguait nettement selon tous les paramètres de qualité étudiés. Cette étude démontre que les aliments d’origine végétale riches en caroténoïdes provitaminiques A, dont l’HPR qui en est la meilleure source, peuvent permettre d’avoir un statut adéquat en VA. Les risques de contamination de l’HPR au stade de la vente au détail impliquent une sensibilisation et une formation aux pratiques exemplaires de manipulation. Mots clés : Huile de palme rouge, vitamine A, diversification alimentaire, qualité, Burkina Faso.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le sujet principal de ce mémoire est l'étude de la distribution asymptotique de la fonction f_m qui compte le nombre de diviseurs premiers distincts parmi les nombres premiers $p_1,...,p_m$. Au premier chapitre, nous présentons les sept résultats qui seront démontrés au chapitre 4. Parmi ceux-ci figurent l'analogue du théorème d'Erdos-Kac et un résultat sur les grandes déviations. Au second chapitre, nous définissons les espaces de probabilités qui serviront à calculer les probabilités asymptotiques des événements considérés, et éventuellement à calculer les densités qui leur correspondent. Le troisième chapitre est la partie centrale du mémoire. On y définit la promenade aléatoire qui, une fois normalisée, convergera vers le mouvement brownien. De là, découleront les résultats qui formeront la base des démonstrations de ceux chapitre 1.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Voir la bibliographie du mémoire pour les références du résumé. See the thesis`s bibliography for the references in the summary.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a new theory of random consumer demand. The primitive is a collection of probability distributions, rather than a binary preference. Various assumptions constrain these distributions, including analogues of common assumptions about preferences such as transitivity, monotonicity and convexity. Two results establish a complete representation of theoretically consistent random demand. The purpose of this theory of random consumer demand is application to empirical consumer demand problems. To this end, the theory has several desirable properties. It is intrinsically stochastic, so the econometrician can apply it directly without adding extrinsic randomness in the form of residuals. Random demand is parsimoniously represented by a single function on the consumption set. Finally, we have a practical method for statistical inference based on the theory, described in McCausland (2004), a companion paper.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).