77 resultados para Wrongful gains


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années, plusieurs programmes d’intervention ont été bâtis, afin de répondre aux besoins particuliers des enfants autistes. Une composante importante de ces interventions devrait être la guidance parentale. Ce volet permet aux parents de se sentir plus compétents et les enfants peuvent généraliser leurs acquis au quotidien. Ce mémoire a donc pour but d’évaluer un programme d’intervention pour les parents d’enfants autistes au cours duquel ils recevront des connaissances sur les particularités de leur enfant et seront appelés à participer à des activités spécifiques favorisant des interactions plus centrées sur les besoins de leur enfant. Le protocole quasi expérimental avec un pré et un post test avec un groupe de contrôle non équivalent a été utilisé pour évaluer les effets de ce programme. L’échantillon pour cette étude est constitué de 14 familles, lesquelles ont été distribuées dans les groupes en fonction de leur arrivée dans le programme. Les parents et l’enfant ont participé à une séance hebdomadaire individuelle pendant cinq semaines. Des outils standardisés ont été utilisés avant et après l’intervention pour mesurer l’atteinte des objectifs. Tant pour les parents que pour les enfants, les deux groupes ont montré une amélioration significative ou une tendance à l’amélioration lors du post test, mais cette amélioration n’était pas significativement différente entre les deux groupes. Plusieurs variables non contrôlées peuvent expliquer ces résultats, malgré tout ceux-ci sont assez intéressants pour encourager la poursuite d’études sur le sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consolidation est le processus qui transforme une nouvelle trace mnésique labile en ‎une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour ‎l’exploration de la consolidation motrice dans ses dimensions comportementale et ‎cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à ‎reproduire une même série de mouvements des doigts, apprise de manière implicite ou ‎explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont ‎montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la ‎trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus ‎particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient ‎été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une ‎séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce ‎rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique ‎suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie ‎fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont ‎montré des changements au niveau de l’activité du système cortico-striatal suite à la ‎consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces ‎changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit ‎suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de ‎déterminer, à travers des enregistrements polysomnographiques et des analyses ‎corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) ‎associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non ‎altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données ‎polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), ‎acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), ‎l’association entre les fuseaux du sommeil et les activations cérébrales suite à la ‎consolidation de la séquence motrice. Les résultats de notre première étude ont montré ‎une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation ‎d’une séquence motrice apprise de manière explicite après une nuit de sommeil non ‎altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de ‎sommeil altérées. En effet, les analyses statistiques ont mis en évidence une ‎augmentation significative de la densité des fuseaux rapides durant la nuit suivant ‎l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation ‎corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les ‎résultats de notre seconde étude ont mis en évidence des corrélations significatives entre ‎l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de ‎performance ainsi que les changements du signal BOLD au niveau du système cortico-‎striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux ‎du sommeil, les gains de performance ainsi que les changements neuronaux au niveau ‎du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ‎ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ‎ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus ‎mnésique et amélioreraient par la même occasion la consolidation motrice liée au ‎sommeil.‎

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interdépendance de l’environnement a mis en évidence le besoin de la communauté internationale de trouver des mécanismes capables de dépasser les frontières et de protéger les biens naturels d’intérêt commun. Étant donné l’inefficacité du concept de patrimoine commun de l’humanité en ce qui a trait à la protection des biens soumis à la souveraineté d’un État, cette étude analyse l’application de la responsabilité internationale au « dommage transfrontière médiat » (c’est-à-dire, le dommage environnemental qui a lieu à l’intérieur d’un territoire étatique, mais qui caractérise une perte au patrimoine environnemental planétaire) comme mesure capable de surmonter les frontières et de protéger l’environnement. La responsabilité internationale se présente sous deux formes en droit international public général, soit la responsabilité des États pour les activités non interdites par le droit international (ou la responsabilité objective), soit celle découlant d’un fait internationalement illicite. Cette dernière comporte encore deux subdivisions : celle ayant pour cause une « violation d’une obligation internationale » et celle pour une « violation grave d’obligation découlant de normes impératives du droit international général ». L’analyse des principes de droit environnemental international et du principe de la souveraineté démontre que le « dommage transfrontière médiat » pourrait, en théorie, être considéré comme un fait internationalement illicite permettant donc la responsabilisation d’un État.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente et mortelle chez les jeunes enfants. Il se caractérise par une résistance à la chimiothérapie possiblement en partie dû à la présence de cellules initiatrices de tumeurs (TICs). Des études ont mis en évidence le rôle de CD133 comme un marqueur des TICs dans divers types de cancers. Les buts de notre travail étaient d’abord de démontrer les vertus de TICs des cellules exprimant CD133 et ensuite, en utilisant une analyse globale du génome avec des polymorphismes nucléotidiques simples (SNPs), d’effectuer une analyse différentielle entre les TICs et les autres cellules du NB afin d’en identifier les anomalies génétiques spécifiques. Des lignées cellulaires de NB ont été triées par cytométrie de flux afin d’obtenir deux populations: une enrichie en CD133 (CD133high), l’autre faible en CD133 (CD133low). Afin de déterminer si ces populations cellulaires présentent des propriétés de TICs, des essais sur les neurosphères, les colonies en agar mou et les injections orthotopiques de 500 cellules sélectionnées dans 11 souris ont été réalisées. Après une isolation de l’ADN des populations sélectionnées, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 ». Pour vérifier l’expression des gènes identifiés, des Western Blots ont été réalisés. Nos résultats ont démontré que la population CD133 avait des propriétés de TICs in vitro et in vivo. L’analyse génotypique différentielle a permis d’identifier deux régions communes (16p13.3 and 19p13.3) dans la population CD133high ayant des gains et deux autres régions (16q12.1 and 21q21.3) dans la population CD133low possédant des pertes d’hétérozygoties (LOH). Aucune perte n’a été observée. Parmi les gènes étudiés, l’expression protéique d’éphrine-A2 était corrélée à celle de CD133 dans 6 tumeurs et 2 lignées cellulaires de NB. De plus, l’augmentation de la concentration d’anticorps anti-éphrine-A2 dans le milieu diminue la taille des neurosphères. Ainsi, la population CD133high, qui a des vertus de TICs, possède des caractéristiques génotypiques différentes par rapport à celle CD133low. La présence d’éphrine-A2 dans les cellules exprimant CD133 souligne son importance dans le développement des TICs. Ces résultats suggèrent la présence de potentielle cible pour de nouvelles thérapeutiques ciblant les TICs mise en évidence par l’étude génomique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite de la diversité culturelle sous l’optique de la notion d’exception culturelle. Dans la Convention sur la protection et la promotion de la diversité des expressions culturelles, la diversité culturelle acquiert le statut de notion pivot entre les politiques culturelles promulguées à l’échelle nationale, européenne et internationale. L’objectif de ce mémoire a été de déterminer la conception de la diversité culturelle dans l’intention de montrer les tensions qui résultent de la formulation du rôle des États-nations et du pouvoir dévolu à la libre circulation des biens et produits culturels à l’échelle supranationale. D’où l’hypothèse que la notion de diversité culturelle est sujette à des glissements de sens afin de rallier les parties en présence. Selon ces constats et l’hypothèse de Bourdieu selon laquelle on assiste à l’homogénéisation des cultures, nous avons répondu aux questions suivantes : comment la Convention peut-elle concilier l’ouverture des marchés des biens et services culturels et la protection de la diversité culturelle ? Comment la diversité culturelle s’orchestre-t-elle sous l’égide de la Convention de l’UNESCO ? Sous la tutelle de l’État-nation chargé de défendre les couleurs de la culture nationale ? Ou par l’intermédiaire du marché capable de réguler l’offre et la demande en matière de culture ? La Convention a donc fait l’objet d’une analyse de discours dans l’intention d’exhiber les tensions sous-jacentes à la conception de la diversité culturelle. En effet, la diversité culturelle est sujette à des glissements de sens, car elle est orchestrée en partie par le droit souverain des États-nations qui sont en mesure de protéger et promouvoir la diversité des expressions culturelles sur leur territoire, mais aussi, elle est basée sur des principes de libre échange et de libre circulation des produits, activités, biens et services culturels découlant de la coopération régionale, bilatérale et internationale mise de l’avant par la Convention. La Convention permet jusqu’à un certain point une conciliation entre l’ouverture du marché des biens et services culturels et la protection de la diversité culturelle grâce à ces mécanismes et ces organes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années, le Québec fut durement touché par des vagues massives de licenciements collectifs. Après l’industrie du textile et du vêtement, c’est maintenant au tour de l’industrie forestière de subir, de plein fouet, les contrecoups d’une économie en pleine mutation. Les résultats des entrevues réalisées au printemps 2008, auprès des travailleurs de la Louisiana-Pacific de Saint-Michel-des-Saints, attestent de l’incapacité des dispositions sur le licenciement collectif à prendre adéquatement en charge les travailleurs victimes de ces fermetures d’usines. Pour évaluer le degré d’efficacité des dispositions sur le licenciement collectif, nous partons d’une étude empirique visant le processus de restructuration d’une grande entreprise papetière, qui conduit à la fermeture de son usine de traitement du bois à St-Michel-des-Saints. Des entretiens conduits auprès des travailleurs, des acteurs locaux comme des dirigeants du syndicat et de la communauté locale, et d’autres acteurs syndicaux et gouvernementaux permettent de reconstruire les étapes conduisant aux licenciements collectifs et à leur suite. Seule la mobilisation syndicale (blocus de l’usine) a permis de bonifier les faibles mesures palliatives prévues initialement par la loi. Cette mobilisation n’a toutefois pas empêché de constater des effets négatifs marqués (appauvrissement, sentiment d’exclusion, tensions familiales, etc.) chez les travailleurs victimes de ce licenciement massif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe actuellement des différends frontaliers entre les États circumpolaires-Nord qui entravent la bonne gouvernance de la région. Afin d'identifier des pistes de solution pour améliorer la gouvernance en Arctique et faciliter la coopération, nous analysons le processus qui a mené, à l'autre pôle, à la création du Traité sur l’Antarctique de 1959. Nous utilisons une approche néolibérale institutionnelle comme cadre théorique ainsi qu’une méthodologie basée sur le traçage de processus. Nous avons identifié quatre variables (les intérêts des États, le contexte politique, le leadership, et l’Année géophysique internationale [AGI]) que nous avons étudiés au cours de trois périodes historiques et dont l’évolution a contribué à la formation du régime antarctique. Les étapes menant à l'élaboration d'un régime identifié dans la théorie institutionnaliste dynamique de Frischmann s'appliquent aux différentes périodes que nous avons déterminées. La première période historique correspond à l'identification du problème d'interdépendance. Les États ont d’abord tenté d’assouvir leurs intérêts particuliers envers le continent antarctique par l’intermédiaire de stratégies individuelles. Le statut imprécis du continent antarctique caractérisé par des revendications territoriales conflictuelles, la volonté des superpuissances d’effectuer d’éventuelles revendications territoriales et le leadership exercé par les États-Unis ont toutefois permis de faire évoluer les États vers des stratégies coopératives. La deuxième période historique correspond à l'étape de la négociation de l’entente. Le leadership d’un groupe de scientifiques et des États-Unis ainsi que le contexte politique de la Guerre froide ont favorisé la cohésion des États intéressés par les affaires antarctiques et leur investissement dans une coopération multilatérale souple dans le cadre d’un événement ponctuel, l’AGI. La troisième période correspond à la mise en oeuvre de l’entente, soit l’AGI. Lors de cet événement, une entente tacite, un engagement d’honneur, qui suspendait les considérations territoriales en Antarctique, a été respectée par les parties. La coopération dans le cadre de l’AGI s’est avérée un succès. Les États se sont montrés satisfaits des gains que comportait la coopération scientifique dans un environnement pacifique. L’AGI a permis aux États d’expérimenter la coopération multilatérale et d’observer le comportement des autres participants au sein de l’institution. En raison de la satisfaction des États vis-à-vis la coopération dans le cadre de l'entente souple, l'élaboration du traité de 1959 a été facilitée. Notre étude nous a permis d’identifier des éléments clefs qui ont favorisé la formation du régime antarctique et qui pourraient servir d’inspiration pour l'élaboration de futurs régimes. La présence d’un leadership tout au long du processus a permis de promouvoir les avantages de la coopération sous différentes formes et de renforcer les relations entre les États présents dans les affaires antarctiques. La réalisation d'une entente souple dans le cadre de l'AGI, centrée autour des intérêts communs aux parties, comprenant un engagement d’honneur, permettant de mettre de côté les points de discorde, ont aussi été des points centraux dans la réussite et la poursuite de la coopération au-delà de l’AGI. Cette approche graduelle allant du droit souple vers le droit contraignant est sans aucun doute l’élément le plus important ayant facilité le rapprochement des différentes parties et éventuellement la création du Traité sur l’Antarctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude quasi-expérimentale a pour but de 1) comparer la prise en compte et les effets de trois conditions rétroactives, à savoir la reformulation, l’incitation et un mélange des deux techniques, 2) déterminer le lien entre la prise en compte et l’apprentissage, et 3) identifier l’effet des perceptions des apprenants quant à la rétroaction corrective sur la prise en compte et l’apprentissage. Quatre groupes d’apprenants d’anglais langue seconde ainsi que leurs enseignants provenant d’un CEGEP francophone de l’île de Montréal ont participé à cette étude. Chaque enseignant a été assigné à une condition rétroactive expérimentale qui correspondait le plus à ses pratiques rétroactives habituelles. La chercheure a assuré l’intervention auprès du groupe contrôle. L’utilisation du passé et de la phrase interrogative était ciblée durant l’intervention expérimentale. Des protocoles de pensée à haute voie ainsi qu’un questionnaire ont été utilisés pour mesurer la prise en compte de la rétroaction corrective. Des tâches de description d’images et d’identification des différences entre les images ont été administrées avant l’intervention (pré-test), immédiatement après l’intervention (post-test immédiat) et 8 semaines plus tard (post-test différé) afin d’évaluer les effets des différentes conditions rétroactives sur l’apprentissage des formes cibles. Un questionnaire a été administré pour identifier les perceptions des apprenants quant à la rétroaction corrective. En termes de prise en compte, les résultats indiquent que les participants sont en mesure de remarquer la rétroaction dépendamment de la forme cible (les erreurs dans l’utilisation du passé sont détectées plus que les erreurs d’utilisation de la phrase interrogative) et de la technique rétroactive utilisée (l’incitation et le mélange d’incitation et de reformulations sont plus détectés plus que la reformulation). En ce qui a trait à l’apprentissage, l’utilisation du passé en général est marquée par plus de développement que celle de la phrase interrogative, mais il n'y avait aucune différence entre les groupes. Le lien direct entre la prise en compte et l’apprentissage ne pouvait pas être explicitement établi. Pendant que la statistique inférentielle a suggéré une relation minimale entre la prise en compte du passé et son apprentissage, mais aucune relation entre la prise en compte de la phrase interrogative et son apprentissage, les analyses qualitatives ont montrés à une association entre la prise en compte et l’apprentissage (sur les deux cibles) pour certains étudiants et augmentations sans prise en compte pour d'autres. Finalement, l’analyse factorielle du questionnaire indique la présence de quatre facteurs principaux, à savoir l’importance de la rétroaction corrective, la reformulation, l’incitation et les effets affectifs de la rétroaction. Deux de ces facteurs ont un effet modérateur sur la prise en compte de la rétroaction sans, toutefois, avoir d’impact sur l’apprentissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie