14 resultados para Error correction methods

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de recherche

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche a pour but d’évaluer le rôle de la vision et de la proprioception pour la perception et le contrôle de l’orientation spatiale de la main chez l’humain. L’orientation spatiale de la main est une composante importante des mouvements d’atteinte et de saisie. Toutefois, peu d’attention a été portée à l’étude de l’orientation spatiale de la main dans la littérature. À notre connaissance, cette étude est la première à évaluer spécifiquement l’influence des informations sensorielles et de l’expérience visuelle pour la perception et le contrôle en temps réel de l'orientation spatiale de la main pendant le mouvement d’atteinte naturel vers une cible stationnaire. Le premier objectif était d’étudier la contribution de la vision et de la proprioception dans des tâches de perception et de mouvement d’orientation de la main. Dans la tâche de perception (orientation-matching task), les sujets devaient passivement ou activement aligner une poignée de forme rectangulaire avec une cible fixée dans différentes orientations. Les rotations de l’avant-bras et du poignet étaient soit imposées par l’expérimentateur, soit effectuées par les sujets. Dans la tâche de mouvement d’orientation et d’atteinte simultanées (letter posting task 1), les sujets ont réalisé des mouvements d’atteinte et de rotation simultanées de la main afin d’insérer la poignée rectangulaire dans une fente fixée dans les mêmes orientations. Les tâches ont été réalisées dans différentes conditions sensorielles où l’information visuelle de la cible et de la main était manipulée. Dans la tâche perceptive, une augmentation des erreurs d’orientation de la main a été observée avec le retrait des informations visuelles concernant la cible et/ou ou la main. Lorsque la vision de la main n’était pas permise, il a généralement été observé que les erreurs d’orientation de la main augmentaient avec le degré de rotation nécessaire pour aligner la main et la cible. Dans la tâche de mouvement d’orientation et d’atteinte simultanées, les erreurs ont également augmenté avec le retrait des informations visuelles. Toutefois, les patrons d’erreurs étaient différents de ceux observés dans la tâche de perception, et les erreurs d’orientation n’ont pas augmenté avec le degré de rotation nécessaire pour insérer la poignée dans la fente. En absence de vision de la main, il a été observé que les erreurs d’orientation étaient plus petites dans la tâche de mouvement que de perception, suggérant l’implication de la proprioception pour le contrôle de l’orientation spatiale de la main lors des mouvements d’orientation et d’atteinte simultanées. Le deuxième objectif de cette recherche était d’étudier l’influence de la vision et de la proprioception dans le contrôle en temps réel de l’orientation spatiale de la main. Dans une tâche d’orientation de la main suivie d’une atteinte manuelle (letter posting task 2), les sujets devaient d’abord aligner l’orientation de la même poignée avec la fente fixée dans les mêmes orientations, puis réaliser un mouvement d’atteinte sans modifier l’orientation initiale de la main. Une augmentation des erreurs initiales et finales a été observée avec le retrait des informations visuelles. Malgré la consigne de ne pas changer l’orientation initiale de la main, une diminution des erreurs d’orientation a généralement été observée suite au mouvement d’atteinte, dans toutes les conditions sensorielles testées. Cette tendance n’a pas été observée lorsqu’aucune cible explicite n’était présentée et que les sujets devaient conserver l’orientation de départ de la main pendant le mouvement d’atteinte (mouvement intransitif; letter-posting task 3). La diminution des erreurs pendant l’atteinte manuelle transitive vers une cible explicite (letter-posting task 2), malgré la consigne de ne pas changer l’orientation de la main pendant le mouvement, suggère un mécanisme de corrections automatiques pour le contrôle en temps réel de l’orientation spatiale de la main pendant le mouvement d’atteinte naturel vers une cible stationnaire. Le troisième objectif de cette recherche était d’évaluer la contribution de l’expérience visuelle pour la perception et le contrôle de l’orientation spatiale de la main. Des sujets aveugles ont été testés dans les mêmes tâches de perception et de mouvement. De manière générale, les sujets aveugles ont présenté les mêmes tendances que les sujets voyants testés dans la condition proprioceptive (sans vision), suggérant que l’expérience visuelle n’est pas nécessaire pour le développement d’un mécanisme de correction en temps réel de l’orientation spatiale de la main basé sur la proprioception.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this paper is to discuss the crisis of the international financial system and the necessity of reforming it by new anchor or benchmark for the international currency, a money-commodity. The need for understanding the definition of a numéraire is a first necessity. Although most economists reject any connection between money and a particular commodity (gold) – because of the existence of legal tender money in every country – it will be shown that it is equivalent to reduce the real space to an abstract number (usually assumed 1) in order to postulate that money is neutral. This is sheer nonsense. It will also be shown that the concept of fiat money or state money does not preclude the existence of commodity money. This paper is divided in four sections. The first section analyses the definition and meaning of a numéraire for the international currency and the justification for a variable standard of value. In the second section, the market value of the US dollar is analysed by looking at new forms of value -the derivative products- the dollar as a safe haven, and the role of SDRs in reforming the international monetary system. In the third and fourth sections, empirical evidence concerning the most recent period of the financial crisis is presented and an econometric model is specified to fit those data. After estimating many different specifications of the model –linear stepwise regression, simultaneous regression with GMM estimator, error correction model- the main econometric result is that there is a one to one correspondence between the price of gold and the value of the US dollar. Indeed, the variance of the price of gold is mainly explained by the Euro exchange rate defined with respect to the US dollar, the inflation rate and negatively influenced by the Dow Jones index and the interest rate.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif: Définir l’effet des lipides et du traitement de la dyslipidémie sur les cancers de la prostate et de la vessie en utilisant différents devis d’étude et en tenant compte de la présence de plusieurs biais, particulièrement le biais du temps immortel. Devis: Le premier volet utilise un devis rétrospectif de type cas témoins. Un questionnaire semi-quantitatif de fréquence de consommation alimentaire validé a été utilisé. Le génotype COX2 de neuf polymorphisme nucléotidique unique (SNP) a été mesuré avec une plateforme Taqman. Des modèles de régression logistique non conditionnelle ont été utilisés pour comparer le risque de diagnostic d’un cancer de la prostate et l’interaction. Le deuxième volet utilise un devis rétrospectif de type cohorte basée sur les données administratives de la Régie de l’assurance-maladie du Québec (RAMQ). Des modèles de régression de Cox ont été employés pour mesurer l’association entre les statines et l’évolution du cancer de la vessie. Le troisième volet, porte un regard méthodologique sur le biais du temps immortel en examinant sa présence dans la littérature oncologique. Son importance est illustrée avec les données de la cohorte du deuxième volet, et les méthodes de correction possibles son appliquées. Résultats: L’étude du premier volet démontre qu’une diète riche en acides gras oméga-3 d’origine marine était fortement associée à un risque diminué de cancer de la prostate agressif (p<0.0001 pour la tendance). Le ratio de cote pour le cancer de la prostate du quartile supérieur d’oméga-3 était de 0.37 (IC 95% = 0.25 à 0.54). L’effet diététique était modifié par le génotype COX-2 SNP rs4648310 (p=0.002 pour l’interaction). En particulier, les hommes avec faible apport en oméga-3 et la variante rs4648310 avait un risque accru de cancer de la prostate (ratio de cote = 5.49, IC 95%=1.80 à 16.7), effet renversé par un apport en oméga-3 plus grand. L’étude du deuxième volet a observé que l’utilisation de statines est associée à une diminution du risque de progression du cancer de la vessie (risque relatif = 0.44, IC 95% = 0.20 à 0.96, p=0.039). Cette association était encore plus forte pour le décès de toute cause (HR = 0.57, 95% CI = 0.43 to 0.76, p=0.0001). L’effet des statines semble être dose-dépendant. L’étude du troisième volet démontre que le biais du temps immortel est fréquent et important dans les études épidémiologiques oncologiques. Il comporte plusieurs aspects dont certains sont mieux prévenus au stade du choix du devis d’étude et différentes méthodes statistiques permettent un contrôle de ce biais. Conclusion: 1) Une diète riche en oméga-3 aurait un effet protecteur pour le cancer de la prostate. 2) L’utilisation de statines aurait un effet protecteur sur la progression du cancer non invasif de la vessie. Les lipides semblent avoir un effet sur les cancers urologiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude quasi-expérimentale a pour but de 1) comparer la prise en compte et les effets de trois conditions rétroactives, à savoir la reformulation, l’incitation et un mélange des deux techniques, 2) déterminer le lien entre la prise en compte et l’apprentissage, et 3) identifier l’effet des perceptions des apprenants quant à la rétroaction corrective sur la prise en compte et l’apprentissage. Quatre groupes d’apprenants d’anglais langue seconde ainsi que leurs enseignants provenant d’un CEGEP francophone de l’île de Montréal ont participé à cette étude. Chaque enseignant a été assigné à une condition rétroactive expérimentale qui correspondait le plus à ses pratiques rétroactives habituelles. La chercheure a assuré l’intervention auprès du groupe contrôle. L’utilisation du passé et de la phrase interrogative était ciblée durant l’intervention expérimentale. Des protocoles de pensée à haute voie ainsi qu’un questionnaire ont été utilisés pour mesurer la prise en compte de la rétroaction corrective. Des tâches de description d’images et d’identification des différences entre les images ont été administrées avant l’intervention (pré-test), immédiatement après l’intervention (post-test immédiat) et 8 semaines plus tard (post-test différé) afin d’évaluer les effets des différentes conditions rétroactives sur l’apprentissage des formes cibles. Un questionnaire a été administré pour identifier les perceptions des apprenants quant à la rétroaction corrective. En termes de prise en compte, les résultats indiquent que les participants sont en mesure de remarquer la rétroaction dépendamment de la forme cible (les erreurs dans l’utilisation du passé sont détectées plus que les erreurs d’utilisation de la phrase interrogative) et de la technique rétroactive utilisée (l’incitation et le mélange d’incitation et de reformulations sont plus détectés plus que la reformulation). En ce qui a trait à l’apprentissage, l’utilisation du passé en général est marquée par plus de développement que celle de la phrase interrogative, mais il n'y avait aucune différence entre les groupes. Le lien direct entre la prise en compte et l’apprentissage ne pouvait pas être explicitement établi. Pendant que la statistique inférentielle a suggéré une relation minimale entre la prise en compte du passé et son apprentissage, mais aucune relation entre la prise en compte de la phrase interrogative et son apprentissage, les analyses qualitatives ont montrés à une association entre la prise en compte et l’apprentissage (sur les deux cibles) pour certains étudiants et augmentations sans prise en compte pour d'autres. Finalement, l’analyse factorielle du questionnaire indique la présence de quatre facteurs principaux, à savoir l’importance de la rétroaction corrective, la reformulation, l’incitation et les effets affectifs de la rétroaction. Deux de ces facteurs ont un effet modérateur sur la prise en compte de la rétroaction sans, toutefois, avoir d’impact sur l’apprentissage.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Différentes études ont montré que le niveau des futurs enseignants, issus des écoles publiques, en français langue étrangère (FLE) en Égypte est assez faible. Ceux-ci font un grand nombre d’erreurs répétitives à l’oral. Quoique ce manque de précision langagière puisse être dû à plusieurs facteurs, il appert que la rétroaction soit une des variables contribuant à ce phénomène (comme le nombre d’étudiants en classe, la durée du cours, l’âge et la motivation des étudiants, les méthodes d’enseignement, etc.). La rétroaction corrective est généralement définie comme toute correction explicite ou implicite de la part de l’enseignant indiquant que la production de l’apprenant est erronée. Elle est considérée comme indispensable dans les classes de langues secondes (LS) (Shmidt, 1983, 2001 ; Long, 1991, 1996 ; Lightbown, 1998). Pour ces raisons, cette étude porte sur la rétroaction corrective et, plus spécifiquement, sur les croyances des enseignants et des apprenants quant à celle-ci, ainsi qu’à son utilisation dans les classes de FLE en Égypte. Les recherches antérieures indiquent que les croyances des enseignants quant à l’acte d’enseigner influencent leurs pratiques en classe, que les croyances des apprenants influencent leur motivation, leur niveau et leurs efforts déployés pour l’apprentissage de la langue, et qu’une divergence entre les croyances des professeurs et celles des apprenants peut entraîner des effets négatifs sur l’apprentissage de la langue cible, ce qui indique ainsi qu’il est de grande importance d’explorer les croyances. Ainsi, la présente étude vise à explorer les croyances des professeurs égyptiens et celles de leurs étudiants en ce qui a trait à la rétroaction corrective à l’oral, la différence entre ces croyances, et l’identification des pratiques réelles des professeurs afin de décrire à quel point celles-ci reflètent les croyances exprimées. Pour ce faire, un questionnaire a été administré à 175 étudiants et 25 professeurs appartenant à trois universités égyptiennes afin de déterminer leurs croyances déclarées. Des entrevues semi-dirigées et des observations directes ont été réalisées auprès de neuf des 25 professeurs participants pour mieux déterminer leurs croyances et leurs pratiques rétroactives. Les résultats obtenus ont révélé qu’il existe des divergences importantes entre les croyances des professeurs et celles des étudiants, d’un côté, et entre les croyances des professeurs et leur pratique, de l’autre côté. Par exemple, la plupart des étudiants ont déclaré leur opposition à l’utilisation de la reformulation alors que presque la moitié des professeurs ont indiqué être en faveur de cette même technique. Les professeurs ont indiqué que leur choix de techniques rétroactives dépend du type d’erreurs et qu’ils préfèrent inciter les apprenants à s’auto corriger. Cependant, ces mêmes professeurs ont utilisé la reformulation pour corriger la majorité des erreurs de leurs apprenants, quelle que soit leur nature. Nous parvenons ainsi à la conclusion que l’utilisation de la reformulation, qui fait l’objet d’une divergence au niveau des croyances, pourrait être à l’origine du manque de précision langagière rapporté par les chercheurs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les gènes sont les parties du génome qui codent pour les protéines. Les gènes d’une ou plusieurs espèces peuvent être regroupés en "familles", en fonction de leur similarité de séquence. Cependant, pour connaître les relations fonctionnelles entre ces copies de gènes, la similarité de séquence ne suffit pas. Pour cela, il est important d’étudier l’évolution d’une famille par duplications et pertes afin de pouvoir distinguer entre gènes orthologues, des copies ayant évolué par spéciation et susceptibles d’avoir conservé une fonction commune, et gènes paralogues, des copies ayant évolué par duplication qui ont probablement développé des nouvelles fonctions. Étant donnée une famille de gènes présents dans n espèces différentes, un arbre de gènes (obtenu par une méthode phylogénétique classique), et un arbre phylogénétique pour les n espèces, la "réconciliation" est l’approche la plus courante permettant d’inférer une histoire d’évolution de cette famille par duplications, spéciations et pertes. Le degré de confiance accordé à l’histoire inférée est directement relié au degré de confiance accordé à l’arbre de gènes lui-même. Il est donc important de disposer d’une méthode préliminaire de correction d’arbres de gènes. Ce travail introduit une méthodologie permettant de "corriger" un arbre de gènes : supprimer le minimum de feuilles "mal placées" afin d’obtenir un arbre dont les sommets de duplications (inférés par la réconciliation) sont tous des sommets de "duplications apparentes" et obtenir ainsi un arbre de gènes en "accord" avec la phylogénie des espèces. J’introduis un algorithme exact pour des arbres d’une certaine classe, et une heuristique pour le cas général.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La recherche de nouvelles voies de correction de la scoliose idiopathique a une longue histoire. Le traitement conventionnel de la scoliose idiopathique est présenté par le port du corset ou par la correction opératoire de la déformation. Depuis leur introduction, les deux méthodes ont prouvé leur efficacité. Cependant, malgré des caractéristiques positives évidentes, ces méthodes peuvent causer un nombre important d'effets indésirables sur la santé du patient. Les techniques sans fusion pour le traitement de la scoliose semblent être une alternative perspective de traitement traditionnel, car ils apportent moins de risques et des complications chirurgicales que les méthodes conventionnelles avec la conservation de la mobilité du disque intravertébral. Cependant, l'utilisation de techniques mentionnées exige une connaissance profonde de la modulation de croissance vertébrale. L'objectif principal de la présente étude est d'estimer le potentiel d'agrafes à l’AMF de moduler la croissance des vertèbres porcines en mesurant la croissance osseuse sur la plaque de croissance de vertèbres instrumentées en comparaison avec le groupe contrôle. La méthode est basée sur la loi de Hueter-Volkmann. Nous avons choisi NiTi agrafes à l’AMF pour notre étude et les porcs de race Landrace comme un animal expérimental. Les agrafes ont été insérés sur 5 niveaux thoracique de T6 à T11. En outre, les radiographies ont été prises toutes les 2 semaines. La présence d'agrafes en alliage à mémoire de forme a produit la création de courbes scoliotiques significatives dans 4 de 6 animaux chargés et le ralentissement considérable de la croissance osseuse (jusqu'à 35,4%) comparativement aux groupes contrôle et sham. L'étude a démontré in vivo le potentiel d'agrafes en alliage à mémoire de formes de moduler la croissance des vertèbres en créant des courbes scoliotiques sur les radiographies et en ralentissant le taux de croissance sur les plaques de croissance instrumenté. La position précise de l'agrafe est essentielle pour la modulation de croissance osseuse et le développement de la scoliose expérimentale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.