963 resultados para Approche spectrale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les documents publiés par des entreprises, tels les communiqués de presse, contiennent une foule d’informations sur diverses activités des entreprises. C’est une source précieuse pour des analyses en intelligence d’affaire. Cependant, il est nécessaire de développer des outils pour permettre d’exploiter cette source automatiquement, étant donné son grand volume. Ce mémoire décrit un travail qui s’inscrit dans un volet d’intelligence d’affaire, à savoir la détection de relations d’affaire entre les entreprises décrites dans des communiqués de presse. Dans ce mémoire, nous proposons une approche basée sur la classification. Les méthodes de classifications existantes ne nous permettent pas d’obtenir une performance satisfaisante. Ceci est notamment dû à deux problèmes : la représentation du texte par tous les mots, qui n’aide pas nécessairement à spécifier une relation d’affaire, et le déséquilibre entre les classes. Pour traiter le premier problème, nous proposons une approche de représentation basée sur des mots pivots c’est-à-dire les noms d’entreprises concernées, afin de mieux cerner des mots susceptibles de les décrire. Pour le deuxième problème, nous proposons une classification à deux étapes. Cette méthode s’avère plus appropriée que les méthodes traditionnelles de ré-échantillonnage. Nous avons testé nos approches sur une collection de communiqués de presse dans le domaine automobile. Nos expérimentations montrent que les approches proposées peuvent améliorer la performance de classification. Notamment, la représentation du document basée sur les mots pivots nous permet de mieux centrer sur les mots utiles pour la détection de relations d’affaire. La classification en deux étapes apporte une solution efficace au problème de déséquilibre entre les classes. Ce travail montre que la détection automatique des relations d’affaire est une tâche faisable. Le résultat de cette détection pourrait être utilisé dans une analyse d’intelligence d’affaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avénement des réseaux sociaux, tel que Facebook, MySpace et LinkedIn, a fourni une plateforme permettant aux individus de rester facilement connectés avec leurs amis, leurs familles ou encore leurs collègues tout en les encourageant activement à partager leurs données personnelles à travers le réseau. Avec la richesse des activités disponibles sur un réseau social, la quantité et la variété des informations personnelles partagées sont considérables. De plus, de part leur nature numérique, ces informations peuvent être facilement copiées, modifiées ou divulguées sans le consentement explicite de leur propriétaire. Ainsi, l’information personnelle révélée par les réseaux sociaux peut affecter de manière concrète la vie de leurs utilisateurs avec des risques pour leur vie privée allant d’un simple embarras à la ruine complète de leur réputation, en passant par l’usurpation d’identité. Malheureusement, la plupart des utilisateurs ne sont pas conscients de ces risques et les outils mis en place par les réseaux sociaux actuels ne sont pas suffisants pour protéger efficacement la vie privée de leurs utilisateurs. En outre, même si un utilisateur peut contrôler l’accès à son propre profil, il ne peut pas contrôler ce que les autres révèlent à son sujet. En effet, les “amis” d’un utilisateur sur un réseau social peuvent parfois révéler plus d’information à son propos que celui-ci ne le souhaiterait. Le respect de la vie privée est un droit fondamental pour chaque individu. Nous pré- sentons dans cette thèse une approche qui vise à accroître la prise de conscience des utilisateurs des risques par rapport à leur vie privée et à maintenir la souveraineté sur leurs données lorsqu’ils utilisent un réseau social. La première contribution de cette thèse réside dans la classification des risques multiples ainsi que les atteintes à la vie privée des utilisateurs d’un réseau social. Nous introduisons ensuite un cadre formel pour le respect de la vie privée dans les réseaux sociaux ainsi que le concept de politique de vie privée (UPP). Celle-ci définie par l’utilisateur offre une manière simple et flexible de spécifier et communiquer leur attentes en terme de respect de la vie privée à d’autres utilisateurs, tiers parties ainsi qu’au fournisseur du réseau social. Par ailleurs, nous dé- finissons une taxonomie (possiblement non-exhaustive) des critères qu’un réseau social peut intégrer dans sa conception pour améliorer le respect de la vie privée. En introduisant le concept de réseau social respectueux de la vie privée (PSNS), nous proposons Privacy Watch, un réseau social respectueux de la vie privée qui combine les concepts de provenance et d’imputabilité afin d’aider les utilisateurs à maintenir la souveraineté sur leurs données personnelles. Finalement, nous décrivons et comparons les différentes propositions de réseaux sociaux respectueux de la vie privée qui ont émergé récemment. Nous classifions aussi ces différentes approches au regard des critères de respect de la vie privée introduits dans cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé en cotutelle (Université de Paris IV-La Sorbonne).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les premières études recensées ayant traité de la co-délinquance ont plus de cent ans. Comme il s’agit d’un sujet qui a de l’histoire, il y a eu une grande évolution dans la façon d’aborder la question et dans les méthodologies employées. Mais, ce n’est que depuis quelques années que la co-délinquance est étudiée par l’entremise de données d’arrestations policières et c’est ce type de données qui sera utilisé pour répondre à l’objectif principal, celui-ci étant la détermination des conditions expliquant le recours ou non à la co-délinquance pour commettre une infraction criminelle. De plus, pour répondre à notre objectif de recherche, nous avons opté pour une théorie structurante du crime, approche qui n’avait jamais été utilisé auparavant dans les études sur la co-délinquance. Comme méthodologie, nous avons utilisé un échantillon composé de 9 103 participations criminelles, de 8 243 événements distincts et de 3 356 individus et plusieurs prédicteurs ont été analysés afin de déterminer lesquels expliquent le mieux la co-délinquance. L’âge, le genre, les antécédents criminels, l’urbanité et le type de crimes sont toutes des variables qui ont été considérées. L’urbanité représente une nouveauté dans ce type de recherche, puisque nous avons recensé que très peu d’études ayant abordées la question. Alors, que pour le type de crime, nous l’avons détaillé, comme aucune étude sur la co-délinquance ne l’a fait auparavant (23 catégories d’infractions). Ce détail nous permet donc de bien cibler l’impact de chaque délit sur le recours à la co-délinquance. Le résultat émergeant des analyses de régression logistique est que le recours à la co-délinquance s’explique principalement par le type de crime commis, certains actes criminels sont plus propices à la co-délinquance que d’autres. Nous constatons également que les autres variables analysées ont très peu ou pas d’impact sur le recours à la co-délinquance, que ce soit l’âge, le genre, les antécédents criminels ou même l’urbanité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Cette étude a documenté la collaboration intersectorielle entre les agents de santé communautaires (ASC) et les enseignants visant à combattre la violence à l’égard des femmes et des filles à Vulindlela, une communauté rurale Sud-Africaine. La collaboration entre ces acteurs, les facteurs qui influencent leur collaboration et les avenues possibles pour une amélioration de cette collaboration ont été explorés. Méthodes: Six ASC et cinq enseignants ont pris part à cette recherche participative qui a inclut l'utilisation du dessin comme méthodologie visuelle. La collecte de données a été réalisée en quatre phases, avec un total de huit entretiens de groupes. La stratégie d’analyse principale a inclus une approche dirigée du contenu narratif et une approche de comparaison constante. Résultats: Le système de collaboration entre les enseignants et les ASC manque de définition et ces acteurs ne peuvent donc en faire l’utilisation. Par conséquent la collaboration actuelle entre ces acteurs a été jugée peu développé, impromptue et informelle. De nombreuses contraintes à la collaboration ont été identifiées, y compris le manque de motivation de la part des enseignants, la nature des relations entre les acteurs, et la capacité individuelle limitée des ASC. Conclusion: Compte tenu des nombreuses contraintes à la collaboration entre ces ASC et les enseignants, il n'est pas évident que cette collaboration conduira aux résultats espérés. Dans l'absence de motivation suffisante et d’une prise de conscience réaliste des défis par les acteurs eux-mêmes, les initiatives externes pour améliorer la collaboration sont peu susceptibles de succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette recherche est de démontrer que les décisions arbitrales de la Chambre de commerce internationale peuvent être considérées comme une source potentielle de droit au Canada. Il existe actuellement une incertitude quant au droit matériel utilisé en arbitrage international pour résoudre les différends commerciaux. Bien que l’utilisation de la lex mercatoria pour résoudre un litige soit une option, elle se heurte à de nombreuses incertitudes terminologiques et conceptuelles. L’utilisation d’une approche méthodologique de la lex mercatoria permettrait une classification de ses sources en deux branches: (1) le droit statutaire international et (2) le stare decisis des tribunaux d’arbitrage commercial international. Une telle approche méthodologique conférerait plus de certitude quant à l’application d’un droit uniforme. De plus, elle faciliterait l’étude de l’interlégalité entre les règles de la lex mercatoria et le droit matériel interne. Plus particulièrement, elle permet de comparer les similitudes et les différences des règles du droit matériel entre les décisions arbitrales internationales, le droit statutaire international et les juridictions canadiennes de common law et de droit civil. Cette comparaison rend possible une évaluation de l’influence potentielle des décisions arbitrales de la Chambre de commerce internationale sur le droit matériel canadien et si cette influence est plus importante en droit civil ou en common law.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a été réalisé dans le cadre d'un séjour de recherche à l'Université d'État des Sciences Humaines de Russie (RGGU), Moscou.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome de détresse respiratoire aiguë (SDRA) se développe suite à une atteinte pulmonaire lésionnelle, induisant un œdème et une inflammation excessive, généralement suivis d’une réparation atypique menant à la fibrose. Malgré de signifiants progrès dans les traitements, la mortalité reste élevée : ~ 40 %. Mon hypothèse de travail est que l’atténuation de l’œdème ou de la réponse inflammatoire pourrait freiner le développement ou la sévérité de la phase exsudative. Nous avons évalué cette hypothèse à l’aide d’un modèle de phase exsudative du SDRA, i.e. instillation intra-trachéale de bléomycine, chez les souris.  La modulation des fluides alvéolaires est étudiée avec des souris transgénique (Tg) pour le canal ENaC, qui sont sensibles à la formation d’un œdème. Cependant, ces souris Tg ne sont pas plus sensibles au développement de la phase exsudative en condition lésionnelle (bléomycine). Nous avons déterminé par une étude électrophysiologique des cellules épithéliales alvéolaires de type II (AT II) que ce n’est pas lié à une inhibition par la bléomycine de la fonction du canal ENaC.  Le traitement de la réponse inflammatoire associée au SDRA par des glucocorticoïdes est une thérapie potentielle mais controversée. Les glucocorticoïdes dans notre modèle murin ne réduisent pas la sévérité des lésions. Nous avons pu déterminé lors d’expériences in vitro que ce serait dû à une réduction de la capacité de réparation des AT II. En résumé :  La modulation du canal ENaC ne modifie pas le développement de la phase exsudative, suggérant que la régulation de l’œdème n’est pas suffisante pour modifier l’évolution du SDRA.  La modulation de l’inflammation par les glucocorticoïdes est ineffective, possiblement à cause d’une altération de la réparation. Mon étude suggère que le traitement de la phase exsudative du SDRA est complexe. En effet, la régulation de l’œdème ou de l’inflammation de façon isolée ne peut pas modifier l’évolution du SDRA. L'hétérogénéité des sources du SDRA et la redondance des mécanismes cellulaires impliqués dans l’évolution des lésions pulmonaires suggèrent que le traitement nécessitera une approche visant plusieurs cibles mécanistiques afin d’en accélérer la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour objectif d’examiner l’œuvre romanesque du Togolais Sami Tchak (de son vrai nom Sadamba Tcha Koura). Parmi les écrivains africains francophones dits de la nouvelle génération, il se distingue par une esthétique qui s’inscrit essentiellement dans une dynamique transgressive et transculturelle. À travers un recours systématique au matériau de la sexualité, Sami Tchak construit une poétique, qui, au-delà de son audace transgressive, de son aspect délibérément choquant et provocateur, s’attache à interroger l’existence humaine, à mettre en évidence les misères et les faiblesses de l’Homme. En outre, cette poétique de la sexualité est porteuse de sens du social : elle sert de prétexte à l’auteur pour dépeindre l’existence de ceux qu’il appelle des « vies sans horizon », des « vies sans relief », mais aussi pour déconstruire la doxa. Mû par le désir de s’imposer comme une voix individuelle, de s’éloigner du dogme enfermant de l’africanité, Sami Tchak choisit de marquer son propre territoire littéraire par le biais d’une démarche transculturelle, en ancrant son œuvre dans la mémoire de la littérature. Cet ancrage se double d’une construction polysémique de l’espace. La présente étude s’appuie sur une triple approche, intertextuelle, sociocritique et transculturelle. Par exemple, elle montrera que, contrairement à une certaine critique qui le soupçonne de tourner le dos à l’Afrique, le projet romanesque de Sami Tchak procède d’une conscience à la fois africaine et universelle : même dans les romans qui se déroulent dans l’espace latino-américain, on remarquera que l’auteur possède l’art d’évoquer l’Afrique, surtout à travers des discours allusifs, implicites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai critique présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en service social (M.Sc.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.