989 resultados para test de ratio des variances
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994). Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel.
Resumo:
Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Selon certains modèles évolutionnistes, les femmes seraient davantage affectées par l’infidélité émotionnelle de leur partenaire masculin que par son infidélité sexuelle. Les mécanismes psychologiques responsables auraient évolué pendant notre passé de chasseur-cueilleur de façon à assurer à la femme un accès exclusif aux ressources économiques provenant du partenaire. Or la situation économique des femmes d’aujourd’hui a considérablement changé depuis cette époque, plusieurs d’entre-elles étant indépendantes financièrement. Dans la présente recherche, nous testons l’hypothèse que les femmes qui sont indépendantes financièrement sont moins intensément, ou moins rapidement, jalouses que les femmes qui dépendent financièrement de leur partenaire. Nous cherchons aussi à savoir si le nombre d’enfants, ou certains traits de personnalité ont une influence sur la jalousie. L’échantillon était constitué d’une soixantaine de femmes et les données proviennent de questionnaires et de mises en situation fictives. Nos résultats ne supportent pas l’hypothèse principale, les divers sous-groupes de femmes étant jalouses à la même intensité. Nous considérons divers facteurs pouvant expliquer l’absence de différences, par exemple, la possibilité que certains aspects de la relation de couple puissent cacher l’effet de la situation économique des femmes. D’autres résultats montrent une différence significative dans l’intensité de la jalousie selon l’identité de la personne en relation avec le partenaire (ancienne versus nouvelle amie). Ces résultats sont aussi évalués dans une perspective évolutionniste.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.
Resumo:
Objectif: Cette étude visait à évaluer les effets aigus d’une session d’exercice aérobie sur la performance à une tâche sollicitant les fonctions cognitives exécutives et à déterminer la durée de ces effets. Méthode: Quarante-huit participants universitaires ont été divisés en deux groupes expérimentaux et un groupe contrôle. L'intervention expérimentale consistait à 30 minutes d'exercice à une intensité sous-maximale sur tapis roulant. Les deux groupes expérimentaux ont complété la tâche de Stroop soit immédiatement (groupe 1) ou 10 minutes (groupe 2) après la session d’exercice. Le groupe contrôle a complété la même tâche cognitive mais sans pratique d'exercice. Résultats: Les analyses statistiques indiquent qu’il n’y a pas d’effet d’amélioration de la performance cognitive et ce, peu importe le délai d’exécution de la tâche de Stroop suite à l’exercice. Conclusion : Une seule session d’exercice n’a aucun effet sur les fonctions exécutives. Les limites de l’étude sont présentées en relation avec les résultats obtenus. Les implications des résultats sont discutées en terme de retombées pour les recherches futures.
Resumo:
Il est bien connu que les enfants qui présentent un trouble de traitement auditif (TTA) ont de la difficulté à percevoir la parole en présence de bruit de fond. Cependant, il n’existe aucun consensus quant à l’origine de ces difficultés d’écoute. Ce programme de recherche est consacré à l’étude des incapacités sous-jacentes aux problèmes de perception de la parole dans le bruit chez les enfants présentant un TTA. Le Test de Phrases dans le Bruit (TPB) a été développé afin d’examiner si les difficultés de perception de la parole dans le bruit d’enfants ayant un TTA relèvent d’incapacités auditives, d’incapacités cognitivo-linguistiques ou des deux à la fois. Il comprend cinq listes de 40 phrases, composées de 20 phrases hautement prévisibles (HP) et de 20 phrases faiblement prévisibles (FP), de même qu’un bruit de verbiage. Le niveau de connaissance du mot clé (mot final) de chaque phrase a été vérifié auprès d’un groupe d’enfants âgés entre 5 et 7 ans. De plus, le degré d’intelligibilité des phrases dans le bruit et le niveau de prévisibilité ont été mesurées auprès d’adultes pour assurer l’équivalence entre les listes. Enfin, le TPB a été testé auprès d’un groupe de 15 adultes et d’un groupe de 69 enfants sans trouble auditif avant de l’administrer à des enfants ayant un TTA. Pour répondre à l’objectif général du programme de recherche, dix enfants présentant un TTA (groupe TTA) et dix enfants jumelés selon le genre et l’âge sans difficulté auditive (groupe témoin) ont été soumis aux listes de phrases du TPB selon différentes conditions sonores. Le groupe TTA a obtenu des performances significativement plus faibles comparativement au groupe témoin à la tâche de reconnaissance du mot final des phrases présentées en même temps qu’un bruit de verbiage compétitif, aux rapports signal-sur-bruit de 0, +3 et +4 dB. La moyenne de la différence des scores obtenue entre les phrases HP et FP à chaque condition expérimentale de bruit était similaire entre les deux groupes. Ces résultats suggèrent que les enfants ayant un TTA ne se distinguent pas des enfants du groupe témoin au plan de la compétence cognitivo-linguistique. L’origine des difficultés d’écoute de la parole dans le bruit dans le cas de TTA serait de nature auditive. Toutefois, les résultats des analyses de groupe diffèrent de ceux des analyses individuelles. Les divers profils de difficultés d’écoute identifiés auprès de cette cohorte appuient l’importance de continuer les investigations afin de mieux comprendre l’origine des problèmes de perception de la parole dans le bruit dans le cas de TTA. En connaissant mieux la nature de ces difficultés, il sera possible d’identifier les stratégies d’intervention de réadaptation spécifiques et efficaces.
Resumo:
Le diabète est une maladie métabolique qui se caractérise par une résistance à l’insuline des tissus périphériques et par une incapacité des cellules β pancréatiques à sécréter les niveaux d’insuline appropriés afin de compenser pour cette résistance. Pour mieux comprendre les mécanismes déficients dans les cellules β des patients diabétiques, il est nécessaire de comprendre et de définir les mécanismes impliqués dans le contrôle de la sécrétion d’insuline en réponse au glucose. Dans les cellules β pancréatiques, le métabolisme du glucose conduit à la production de facteurs de couplage métabolique, comme l’ATP, nécessaires à la régulation de l’exocytose des vésicules d’insuline. Le mécanisme par lequel la production de l’ATP par le métabolisme oxydatif du glucose déclenche l’exocytose des vésicules d’insuline est bien décrit dans la littérature. Cependant, il ne peut à lui seul réguler adéquatement la sécrétion d’insuline. Le malonyl-CoA et le NADPH sont deux autres facteurs de couplage métaboliques qui ont été suggérés afin de relier le métabolisme du glucose à la régulation de la sécrétion d’insuline. Les mécanismes impliqués demeurent cependant à être caractérisés. Le but de la présente thèse était de déterminer l’implication des navettes du pyruvate, découlant du métabolisme mitochondrial du glucose, dans la régulation de la sécrétion d’insuline. Dans les cellules β, les navettes du pyruvate découlent de la combinaison des processus d’anaplérose et de cataplérose et permettent la transduction des signaux métaboliques provenant du métabolisme du glucose. Dans une première étude, nous nous sommes intéressés au rôle de la navette pyruvate/citrate dans la régulation de la sécrétion d’insuline en réponse au glucose, puisque cette navette conduit à la production dans le cytoplasme de deux facteurs de couplage métabolique, soit le malonyl-CoA et le NADPH. De plus, la navette pyruvate/citrate favorise le flux métabolique à travers la glycolyse en réoxydation le NADH. Une étude effectuée précédemment dans notre laboratoire avait suggéré la présence de cette navette dans les cellules β pancréatique. Afin de tester notre hypothèse, nous avons ciblé trois étapes de cette navette dans la lignée cellulaire β pancréatique INS 832/13, soit la sortie du citrate de la mitochondrie et l’activité de l’ATP-citrate lyase (ACL) et l’enzyme malique (MEc), deux enzymes clés de la navette pyruvate/citrate. L’inhibition de chacune de ces étapes par l’utilisation d’un inhibiteur pharmacologique ou de la technologie des ARN interférant a corrélé avec une réduction significative de la sécrétion d’insuline en réponse au glucose. Les résultats obtenus suggèrent que la navette pyruvate/citrate joue un rôle critique dans la régulation de la sécrétion d’insuline en réponse au glucose. Parallèlement à notre étude, deux autres groupes de recherche ont suggéré que les navettes pyruvate/malate et pyruvate/isocitrate/α-cétoglutarate étaient aussi importantes pour la sécrétion d’insuline en réponse au glucose. Ainsi, trois navettes découlant du métabolisme mitochondrial du glucose pourraient être impliquées dans le contrôle de la sécrétion d’insuline. Le point commun de ces trois navettes est la production dans le cytoplasme du NADPH, un facteur de couplage métabolique possiblement très important pour la sécrétion d’insuline. Dans les navettes pyruvate/malate et pyruvate/citrate, le NADPH est formé par MEc, alors que l’isocitrate déshydrogénase (IDHc) est responsable de la production du NADPH dans la navette pyruvate/isocitrate/α-cétoglutarate. Dans notre première étude, nous avions démontré l’importance de l’expression de ME pour la sécrétion adéquate d’insuline en réponse au glucose. Dans notre deuxième étude, nous avons testé l’implication de IDHc dans les mécanismes de régulation de la sécrétion d’insuline en réponse au glucose. La diminution de l’expression de IDHc dans les INS 832/13 a stimulé la sécrétion d’insuline en réponse au glucose par un mécanisme indépendant de la production de l’ATP par le métabolisme oxydatif du glucose. Ce résultat a ensuite été confirmé dans les cellules dispersées des îlots pancréatiques de rat. Nous avons aussi observé dans notre modèle que l’incorporation du glucose en acides gras était augmentée, suggérant que la diminution de l’activité de IDHc favorise la redirection du métabolisme de l’isocitrate à travers la navette pyruvate/citrate. Un mécanisme de compensation à travers la navette pyruvate/citrate pourrait ainsi expliquer la stimulation de la sécrétion d’insuline observée en réponse à la diminution de l’expression de IDHc. Les travaux effectués dans cette deuxième étude remettent en question l’implication de l’activité de IDHc, et de la navette pyruvate/isocitrate/α-cétoglutarate, dans la transduction des signaux métaboliques reliant le métabolisme du glucose à la sécrétion d’insuline. La navette pyruvate/citrate est la seule des navettes du pyruvate à conduire à la production du malonyl-CoA dans le cytoplasme des cellules β. Le malonyl-CoA régule le métabolisme des acides gras en inhibant la carnitine palmitoyl transférase 1, l’enzyme limitante dans l’oxydation des acides gras. Ainsi, l’élévation des niveaux de malonyl-CoA en réponse au glucose entraîne une redirection du métabolisme des acides gras vers les processus d’estérification puis de lipolyse. Plus précisément, les acides gras sont métabolisés à travers le cycle des triglycérides/acides gras libres (qui combinent les voies métaboliques d’estérification et de lipolyse), afin de produire des molécules lipidiques signalétiques nécessaires à la modulation de la sécrétion d’insuline. Des études effectuées précédemment dans notre laboratoire ont démontré que l’activité lipolytique de HSL (de l’anglais hormone-sensitive lipase) était importante, mais non suffisante, pour la régulation de la sécrétion d’insuline. Dans une étude complémentaire, nous nous sommes intéressés au rôle d’une autre lipase, soit ATGL (de l’anglais adipose triglyceride lipase), dans la régulation de la sécrétion d’insuline en réponse au glucose et aux acides gras. Nous avons démontré que ATGL est exprimé dans les cellules β pancréatiques et que son activité contribue significativement à la lipolyse. Une réduction de son expression dans les cellules INS 832/13 par RNA interférant ou son absence dans les îlots pancréatiques de souris déficientes en ATGL a conduit à une réduction de la sécrétion d’insuline en réponse au glucose en présence ou en absence d’acides gras. Ces résultats appuient l’hypothèse que la lipolyse est une composante importante de la régulation de la sécrétion d’insuline dans les cellules β pancréatiques. En conclusion, les résultats obtenus dans cette thèse suggèrent que la navette pyruvate/citrate est importante pour la régulation de la sécrétion d’insuline en réponse au glucose. Ce mécanisme impliquerait la production du NADPH et du malonyl-CoA dans le cytoplasme en fonction du métabolisme du glucose. Cependant, nos travaux remettent en question l’implication de la navette pyruvate/isocitrate/α-cétoglutarate dans la régulation de la sécrétion d’insuline. Le rôle exact de IDHc dans ce processus demeure cependant à être déterminé. Finalement, nos travaux ont aussi démontré un rôle pour ATGL et la lipolyse dans les mécanismes de couplage métabolique régulant la sécrétion d’insuline.
Resumo:
Il y a 150 ans, John Stuart Mill dénonçait l'emprise tyrannique de la morale publique sur la vie des individus et affirmait que le principe du préjudice à autrui constitue l'unique critère en vertu duquel l'État peut légitimement interférer avec la liberté individuelle. Près d'un siècle plus tard, en réaction au rapport Wolfenden, Lord Devlin articulait une version de la thèse du moralisme juridique en faveur du maintien de l'interdiction criminelle des pratiques homosexuelles en privé entre adultes consentants. Cette thèse du moralisme juridique a fait l'objet de nombreuses critiques. Selon deux des plus influents philosophes et théoriciens du droit du XXe siècle, Herbert L.A. Hart et Ronald Dworkin, le rôle légitime des valeurs de la communauté, dans la justification de l'intervention coerctive de l'État dans la vie des individus, doit être déterminé du point de vue de la morale critique. Ces débats philosophiques ont profondément influencé le discours judiciaire au Canada. La jurisprudence de la Cour suprême du Canada depuis l'avènement de la Charte témoigne de deux tendances dans l'interprétation et l'application du principe du préjudice lors de l'examen de la légitimité des objectifs législatifs à la première étape du test Oakes. Selon une première approche, qui légitimise souvent un activisme judiciaire, la justification des mesures attentatoires doit reposer sur la démonstration d'un préjudice aux valeurs officiellement reconnues. Selon une deuxième approche, qui préconise plutôt une attitude de déférence envers les choix moraux du législateur, la démonstration d'un préjudice n'est pas un prérequis : l'existence de considérations morales objectives suffit.
Resumo:
Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.
Resumo:
Les cellules gliales sont essentielles au fonctionnement du système nerveux. Dans la rétine, les cellules gliales de Müller assurent à la fois l’homéostasie du tissu et la protection des neurones, notamment celle des cellules ganglionnaires de la rétine (CGRs). L’hypothèse principale de la thèse est que les cellules de Müller joueraient un rôle primordial dans la survie neuronale tant au plan de la signalisation des neurotrophines/proneurotrophines par suite d’une blessure que lors des mécanismes d’excitotoxicité. Contrairement au brain-derived neurotrophic factor (BDNF), le nerve growth factor (NGF) n’est pas en mesure d’induire la survie des CGRs après une section du nerf optique. Le premier objectif de la thèse a donc été de localiser les récepteurs p75NTR et TrkA du NGF dans la rétine adulte et d’établir leur fonction respective en utilisant des ligands peptidomimétiques agonistes ou antagonistes spécifiques pour chacun des récepteurs. Nos résultats ont démontré que TrkA est surexprimé par les CGRs après l’axotomie, tandis que p75NTR est spécifiquement exprimé par les cellules de Müller. Alors que NGF n’est pas en mesure d’induire la survie des CGRs, l’activation spécifique de TrkA par des ligands peptidomimétique est nettement neuroprotectrice. De façon surprenante, le blocage sélectif de p75NTR ou l’absence de celui-ci protège les CGRs de la mort induite par l’axotomie. De plus, la combinaison de NGF avec l’antagoniste de p75NTR agit de façon synergique sur la survie des CGRS. Ces résultats révèlent un nouveau mécanisme par lequel le récepteur p75NTR exprimé par les cellules gliales de Müller peut grandement influencer la survie neuronale. Ensuite, nous avons voulu déterminer l’effet des proneurotrophines dans la rétine adulte. Nous avons démontré que l’injection de proNGF induit la mort des CGRs chez le rat et la souris par un mécanisme dépendant de p75NTR. L’expression de p75NTR étant exclusive aux cellules de Müller, nous avons testé l’hypothèse que le proNGF active une signalisation cellulaire non-autonome qui aboutit à la mort des CGRs. En suivant cette idée, nous avons montré que le proNGF induit une forte expression du tumor necrosis factor α (TNFα) dans les cellules de Müller et que l’inhibition du TNF bloque la mort neuronale induite par le proNGF. L’utilisation de souris knock-out pour la protéine p75NTR, son co-récepteur sortiline, ou la protéine adaptatrice NRAGE a permis de montrer que la production de TNF par les cellules gliales était dépendante de ces protéines. Le proNGF semble activer une signalisation cellulaire non-autonome qui cause la mort des neurones de façon dépendante du TNF in vivo. L’hypothèse centrale de l’excitotoxicité est que la stimulation excessive des récepteurs du glutamate sensibles au N-Methyl-D-Aspartate (NMDA) est dommageable pour les neurones et contribue à plusieurs maladies neurodégénératives. Les cellules gliales sont soupçonnées de contribuer à la mort neuronale par excitotoxicité, mais leur rôle précis est encore méconnu. Le dernier objectif de ma thèse était d’établir le rôle des cellules de Müller dans cette mort neuronale. Nos résultats ont démontré que l’injection de NMDA induit une activation du nuclear factor κB (NF-κB) dans les cellules de Müller, mais pas dans les CGRs, et que l’utilisation d’inhibiteurs du NF-κB empêche la mort des CGRs. De plus, nous avons montré que les cellules de Müller en réaction à l’activation du NF-κB produisent la protéine TNFα laquelle semble être directement impliquée dans la mort des CGRs par excitotoxicité. Cette mort cellulaire se produit principalement par l’augmentation à la surface des neurones des récepteurs AMPA perméables au Ca2+, un phénomène dépendant du TNFα. Ces donnés révèlent un nouveau mécanisme cellululaire non-autonome par lequel les cellules gliales peuvent exacerber la mort neuronale lors de la mise en jeu de mécanismes excitotoxiques.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation