538 resultados para Comportement intériorisé


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude exploratoire vise essentiellement à identifier les principaux facteurs psychologiques des gardiens de but au hockey ayant connu du succès. Plus précisément, cette étude nous a permis d’approfondir le sujet à l’aide d’entrevues individuelles semi-dirigées menées auprès de sept gardiens de but et huit entraîneurs des gardiens de but issus de la Ligue de hockey junior majeur du Québec (LHJMQ). Nous avons ensuite comparé les réponses de ces deux groupes d’experts dans le domaine afin de dresser un portrait précis de l’aspect mental entourant cette position au hockey. Nos résultats démontrent que les mêmes facteurs psychologiques majeurs ressortent du discours des gardiens de but et de celui de leurs entraîneurs. Il a ainsi été possible d’identifier neuf attributs psychologiques prédominants provenant des discours de chacune des parties. Plus précisément, ces neuf facteurs psychologiques reliés à l’atteinte d’une performance athlétique hors pair seraient les traits de personnalité, la résilience, le niveau de confiance, la passion, l’état d’esprit optimal, l’éthique au quotidien, un niveau de concentration optimal, la relativisation des événements et le contrôle des émotions. De manière générale, nos résultats vont dans le même sens que les conclusions tirées des autres études sur les différents aspects mentaux des athlètes de niveau élite. Toutefois, on observe un manque de données scientifiques en ce qui a trait à la psychologie du sport chez les gardiens de but au hockey. Cette étude constitue donc un premier développement dans l’identification des atouts psychologiques influençant la performance des gardiens de but au hockey.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse au comportement américain en matière de reconnaissance d’État. Il tente d’identifier quels sont les facteurs susceptibles d’être appliqués par les États- Unis d’Amérique dans l’hypothèse d’une éventuelle reconnaissance du Québec. Les évènements politiques survenus au cours des trente dernières années au Québec ont non seulement suscité un fort intérêt à Washington, ils ont également conduit le gouvernement américain à mettre en place une approche politique particulière à l’endroit du Québec. Utilisée à partir de la fin des années 1970, cette approche spécifique (qui fait maintenant office de ligne de conduite) demeure encore aujourd’hui celle qui prévaut à la Maison- Blanche. En dépit de la tenue de deux référendums sur la souveraineté en 1980 et en 1995, le Québec demeure encore aujourd’hui une province de l’État canadien. Cependant, s’il devait un jour accéder à l’indépendance, il y a fort à parier que la décision des États-Unis de reconnaître le Québec serait modulée à partir d’intérêts sécuritaires ponctuels, mais aussi en fonction d’intérêts politiques ou économiques. Dans la majorité des cas depuis la dissolution de la Yougoslavie en 1991, les États-Unis d’Amérique ont agi ainsi. L’analyse du comportement américain lors de la reconnaissance récente du Kosovo en 2008 vient appuyer ces dires et démontre que Washington utilise la même approche pour reconnaître de nouveaux États depuis au moins 20 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un animal qui s’approvisionne en groupe peut rechercher soi-même sa nourriture (tactique producteur) ou tenter de se joindre à des parcelles déjà découvertes par un autre individu (tactique chapardeur). Bien que les modèles de jeu producteur-chapardeur partent du principe que les gains moyens à l’équilibre associés à chacune de ces tactiques sont égaux et ne dépendent pas des caractéristiques des individus, de plus en plus d’études démontrent que le gain de chaque tactique est influencé par certaines caractéristiques phénotypiques (agressivité, capacités d’apprentissage,…). Dans cette étude, nous nous intéressons aux effets de la testostérone sur le choix des tactiques d’approvisionnement chez les mâles de diamant mandarin (Taeniopygia guttata). La testostérone est connue pour influencer le développement du cerveau et l’agressivité, nous avons donc testé les effets d’une exposition prénatale à la testostérone ainsi que durant l’âge adulte sur le choix des tactiques d’approvisionnement lorsque la nourriture est cryptique ou défendable. Nous avons réalisé deux expériences : nous avons tout d’abord utilisé la longueur du tarse ainsi que la différence entre les longueurs des doigts 2 et 4 comme des indicateurs de l’exposition prénatale à la testostérone puis testé si ces différences morphologiques se traduisent par des différences dans le choix des tactiques dans une condition défendable et une condition cryptique. Nous avons trouvé que le choix des tactiques chez les diamants mandarins était limité par le phénotype. Une exposition précoce à la testostérone au cours du développement prénatal pourrait donc être la cause d’au moins une part de la variation observée dans le choix des tactiques d’approvisionnement. Ensuite, nous avons manipulé le taux de testostérone plasmatique chez des mâles adultes grâce à des implants hormonaux sous-cutanés puis comparé le comportement des individus lorsqu’ils portaient un implant hormonal et un implant contrôle et ce, dans chacune des deux conditions d’approvisionnement. Nous n’avons mis en évidence aucun effet du taux de testostérone plasmatique sur le choix des tactiques à l’âge adulte. Nos résultats sont en accord avec l’hypothèse que le choix des tactiques d’approvisionnement peut être influencé par les hormones. Notre conclusion est que les hormones stéroïdiennes peut affecter le choix des tactiques via l’existence d’effets maternels dans le jeu producteur-chapardeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.