989 resultados para Modèles cache


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article cherche à montrer que l’apparente intégration de critères éthiques dans l’aide à la santé cache une diversité d’approches et une prédominance à bien des égards de la conception marchande. Dans un premier temps est abordée l’échelle transnationale et macro pour mettre en évidence la coexistence de deux approches différentes: la conception en termes de droits humains, à dominante éthique, et la conception en termes de biens publics mondiaux, à dominante économique. Les limites de la seconde au regard des objectifs de santé sont ensuite discutées. Dans une seconde section, l’échelle méso et micro est examinée. Elle correspond aux tentatives que les acteurs de l’aide fournissent pour dépasser les limites de l’approche par les biens publics mondiaux, en se tournant vers l’éthique des partenariats et de la coopération entre acteurs. Cette éthique de la coopération s’appuie sur un modèle gagnant-gagnant dont les failles théoriques et empiriques sont peu étudiées par les acteurs de l’aide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mécanismes neuronaux contrôlant la respiration sont présentement explorés à l’aide de plusieurs modèles animaux incluant le rat et la grenouille. Nous avons utilisé la lamproie comme modèle animal nous permettant de caractériser les réseaux de neurones du tronc cérébral qui génèrent et modulent le rythme respiratoire. Nous avons d’abord caractérisé une nouvelle population de neurones, dans le groupe respiratoire paratrigéminal (pTRG), une région du tronc cérébral essentielle à la genèse du rythme respiratoire chez la lamproie. Les neurones de cette région sont actifs en phase avec le rythme respiratoire. Nous avons montré que ces neurones possèdent une arborisation axonale complexe, incluant des projections bilatérales vers les groupes de motoneurones du tronc cérébral qui activent les branchies ainsi que des connexions reliant les pTRG de chaque côté du tronc cérébral. Ces résultats montrent que le pTRG contient un groupe de cellules qui active les motoneurones respiratoires des deux côtés et qui pourrait être impliqué dans la synchronisation bilatérale du rythme respiratoire. Nous avons ensuite étudié les mécanismes neuronaux par lesquels le rythme respiratoire est augmenté en lien avec l’effort physique. Nous avons montré que la région locomotrice du mésencéphale (MLR), en plus de son rôle dans la locomotion, active les centres respiratoires pendant la nage, et même en anticipation. Les neurones de la MLR projetant vers les centres locomoteurs et respiratoires sont ségrégés anatomiquement, les neurones localisés plus dorsalement étant ceux qui possèdent des projections vers les centres respiratoires. Nous avons aboli la contribution de la partie dorsale de la MLR aux changements respiratoires en injectant des bloqueurs des récepteurs glutamatergiques localement, sur des préparations semi-intactes. Nous avons montré que lors d’épisodes de nage, une majeure partie de l’effet respiratoire est abolie par ces injections, suggérant un rôle prépondérant des neurones de cette région dans l’augmentation respiratoire pendant la locomotion. Nos résultats confirment que le rythme respiratoire est généré par une région rostrolatérale du pons de la lamproie et montrent que des connexions des centres locomoteurs arrivent directement à cette région et pourraient être impliquées dans l’augmentation respiratoire reliée à l’effort physique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La désinfection de l’eau de consommation et des piscines induit la formation de sous-produits (SPD) potentiellement nocifs pour la santé, parmi lesquels les trihalométhanes (THM), les acides haloacétiques (HAA) et les chloramines (CAM). La difficulté d’estimer l’exposition humaine à ces SPD empêche de cerner précisément les risques sanitaires possiblement associés (i.e., cancérigènes, reprotoxiques, irritatifs). Nos travaux s’articulent autour d’une méthodologie consistant à intégrer des données d’occurrence environnementales à des modèles toxicocinétiques à base physiologique (TCBP) pour améliorer les mesures de l’exposition aux SPD. Cette approche multidisciplinaire veut prendre en compte de manière aussi appropriée que possible les deux composantes majeures des variations de cette exposition : les variations spatio-temporelles des niveaux de contamination environnementale et l’impact des différences inter- et intra-individuelles sur les niveaux biologiques. Cette thèse, organisée en deux volets qui explorent chacun successivement des aspects environnemental et biologique de la problématique, vise à contribuer au développement de cette stratégie innovante d’estimation de l’exposition et, plus généralement, à des meilleures pratiques en la matière. Le premier volet de la thèse s’intéresse à l’exposition en milieu domestique (i.e., résultant de l’utilisation de l’eau potable au domicile) et est consacré au cas complexe des THM, les plus abondants et volatils des SPD, absorbables par ingestion mais aussi par inhalation et voie percutanée. Les articles I et II, constitutifs de ce volet, documentent spécifiquement la question des variations inter- et intra- journalières de présence des SPD en réseau et de leurs impacts sur les estimateurs de l’exposition biologique. Ils décrivent l’amplitude et la diversité des variations à court terme des niveaux environnementaux, présentent les difficultés à proposer une façon systématique et « épidémiologiquement » pratique de les modéliser et proposent, de manière originale, une évaluation des mésestimations, somme toute modestes, des mesures biologiques de l’exposition résultant de leurs non-prise en compte. Le deuxième volet de la thèse se penche sur l’exposition aux SPD en piscine, d’un intérêt grandissant au niveau international, et se restreint au cas jugé prioritaire des piscines publiques intérieures. Ce volet envisage, pour quantifier l’exposition dans ce contexte particulier, l’extension de l’approche méthodologique préconisée, élaborée originellement pour application dans un contexte domestique : d’abord, à travers une analyse approfondie des variations des niveaux de contamination (eau, air) des SPD en piscine en vue de les modéliser (article III); puis en examinant, dans le cas particulier du chloroforme, le THM le plus abondant, la possibilité d’utiliser la modélisation TCBP pour simuler des expositions en piscine (article IV). Les résultats mettent notamment en évidence la difficulté d’appréhender précisément la contamination environnementale autrement que par un échantillonnage in situ tandis que la modélisation TCBP apparait, sur le plan toxicologique, comme l’outil le plus pertinent à ce jour, notamment au regard des autres approches existantes, mais qu’il convient d’améliorer pour mieux prédire les niveaux d’exposition biologique. Finalement, ces travaux illustrent la pertinence et la nécessité d’une approche multidisciplinaire et intégratrice et suggère, sur cette base, les pistes à explorer en priorité pour mieux évaluer l’exposition aux SPD et, in fine, cerner véritablement les risques sanitaires qui en résultent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’appropriation du feed-back a fait l’objet de plusieurs modèles théoriques en contexte d’évaluation de la performance, notamment par Ilgen, Fisher et Taylor (1979) qui suggèrent un modèle explicitant comment un feed-back en vient à susciter des changements comportementaux. Ce modèle a été repris dans divers domaines de recherche, sans pour autant être adapté en fonction du contexte spécifique dans lequel le feed-back était transmis. Cette thèse propose un modèle d’appropriation du feed-back inspiré des travaux d’Ilgen et al. (1979), mais reflétant les spécificités de l’évaluation du potentiel. Le modèle comporte trois étapes qui sont l’appropriation cognitive (composée de l’acceptation et de la conscientisation), l’intention d’agir dans le sens du feed-back et l’appropriation comportementale. La présente thèse se décompose en trois articles poursuivant les objectifs suivants : (1) Proposer un modèle théorique de l’appropriation du feed-back adapté au contexte de l’évaluation du potentiel. (2) Valider une mesure de l’appropriation cognitive combinant l’acceptation et la conscientisation. (3) Tester empiriquement le modèle d’appropriation du feed-back en contexte d’évaluation du potentiel. Le premier article vise d’abord à circonscrire les fondements de l’évaluation du potentiel et à définir l’appropriation du feed-back. Sur la base de ces informations, le modèle d’Ilgen et al. (1979) est ensuite revu et modifié. Les liens entre les différentes étapes du modèle sont subséquemment étayés par des théories et des études empiriques. L’article se conclue par une réflexion sur les retombées théoriques et pratiques du modèle revisité. L’objectif du second article consiste à développer et valider une mesure de l’appropriation cognitive incluant deux dimensions, à savoir l’acceptation et la conscientisation. Pour ce faire, deux études ont été menées auprès de candidats ayant reçu un feed-back suite à une évaluation du potentiel. Des analyses factorielles exploratoires (N = 111), puis des analyses factorielles confirmatoires (N = 178) ont été réalisées en ce sens. Chaque dimension de l’appropriation cognitive a également été mise en relation avec des variables critères afin de recueillir des éléments de preuve appuyant la validité de l’instrument. La majorité des indices obtenus confirment la présence des deux dimensions pressenties et des constats sont tirés sur la base de ces résultats. Le troisième article vise à vérifier empiriquement les liens anticipés entre les composantes du modèle d’appropriation du feed-back détaillé dans le premier article. Les deux premières étapes du modèle, soit l’appropriation cognitive et l’intention d’agir, ont été mesurées via un questionnaire complété immédiatement après le feed-back par 178 candidats. Ces derniers ont été sollicités trois mois plus tard afin de compléter un second questionnaire portant sur la dernière étape, l’appropriation comportementale, et 97 d’entre eux y ont répondu. Les résultats d’analyses par équations structurelles supportent le modèle et une discussion sur la portée de tels résultats s’en suit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Article publié dans le journal « Journal of Information Security Research ». March 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le jeu casual est un phénomène majeur de l’industrie vidéoludique, pourtant il reste peu étudié et mal considéré. Les quelques définitions scientifiques recensées présentent des divergences importantes, ainsi qu’un décalage par rapport aux jeux produits. Les modèles théoriques en design de jeu, centrés sur le gameplay, semblent inadéquats face à ce phénomène. En utilisant le modèle du praticien réflexif de Donald Schön, l’objectif de notre recherche est d’apporter un nouvel éclairage sur le jeu casual grâce au savoir professionnel des designers de jeux. Notre approche est qualitative, d’inspiration phénoménologique : nous avons recueilli l’expérience de huit designers de jeux par l’intermédiaire d’entretiens semi-dirigés proches du récit de pratique. Nos résultats montrent que les concepts utilisés dans les modèles vidéoludiques traditionnels restent pertinents pour définir le jeu casual, mais demandent à être retravaillés afin de rendre compte des mutations de l’expérience de jeu. Ainsi, un challenge dans un jeu casual n’est pas un obstacle mais une opportunité d’action pour le joueur. De plus, la progression se fait par la variation des challenges plutôt que par l’augmentation de la difficulté. Ensuite, certains concepts qui semblaient pertinents pour définir les jeux casual, tels que la fiction positive, ont été rejetés par nos participants. Enfin, notre étude a permis de rassembler des informations sur le rôle du designer de jeu casual et le contexte dans lequel il exerce, ce qui permet d’expliquer certaines causes de la vision péjorative du jeu casual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un animal qui s’approvisionne en groupe peut rechercher soi-même sa nourriture (tactique producteur) ou tenter de se joindre à des parcelles déjà découvertes par un autre individu (tactique chapardeur). Bien que les modèles de jeu producteur-chapardeur partent du principe que les gains moyens à l’équilibre associés à chacune de ces tactiques sont égaux et ne dépendent pas des caractéristiques des individus, de plus en plus d’études démontrent que le gain de chaque tactique est influencé par certaines caractéristiques phénotypiques (agressivité, capacités d’apprentissage,…). Dans cette étude, nous nous intéressons aux effets de la testostérone sur le choix des tactiques d’approvisionnement chez les mâles de diamant mandarin (Taeniopygia guttata). La testostérone est connue pour influencer le développement du cerveau et l’agressivité, nous avons donc testé les effets d’une exposition prénatale à la testostérone ainsi que durant l’âge adulte sur le choix des tactiques d’approvisionnement lorsque la nourriture est cryptique ou défendable. Nous avons réalisé deux expériences : nous avons tout d’abord utilisé la longueur du tarse ainsi que la différence entre les longueurs des doigts 2 et 4 comme des indicateurs de l’exposition prénatale à la testostérone puis testé si ces différences morphologiques se traduisent par des différences dans le choix des tactiques dans une condition défendable et une condition cryptique. Nous avons trouvé que le choix des tactiques chez les diamants mandarins était limité par le phénotype. Une exposition précoce à la testostérone au cours du développement prénatal pourrait donc être la cause d’au moins une part de la variation observée dans le choix des tactiques d’approvisionnement. Ensuite, nous avons manipulé le taux de testostérone plasmatique chez des mâles adultes grâce à des implants hormonaux sous-cutanés puis comparé le comportement des individus lorsqu’ils portaient un implant hormonal et un implant contrôle et ce, dans chacune des deux conditions d’approvisionnement. Nous n’avons mis en évidence aucun effet du taux de testostérone plasmatique sur le choix des tactiques à l’âge adulte. Nos résultats sont en accord avec l’hypothèse que le choix des tactiques d’approvisionnement peut être influencé par les hormones. Notre conclusion est que les hormones stéroïdiennes peut affecter le choix des tactiques via l’existence d’effets maternels dans le jeu producteur-chapardeur.