992 resultados para Terme quadratique
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La consommation de poisson et de mammifères marins représente une source importante d’acides gras oméga-3 connus pour leurs effets bénéfiques sur le développement des fonctions cérébrales et notamment, sur le développement du système visuel. Afin de tester l’hypothèse selon laquelle l’exposition prénatale aux acides gras oméga-3 a des effets bénéfiques à long terme, nous avons examiné les fonctions visuelles chez des enfants Inuits d’âge scolaire exposés à de grandes quantités d’oméga-3 durant la période de gestation. Des enfants Inuits (n = 136; moyenne d’âge = 11.3 ans) du nord du Québec (Nunavik) ont participé à cette étude. Un protocole de potentiels évoqués visuels (PEVs) utilisant des stimuli en couleur et en mouvement a été employé afin d’appréhender les réponses parvo- et magnocellulaires respectivement. Les concentrations d’acide docosahexaénoïque (ADH) ont été mesurées à la naissance à partir du sang de cordon ombilical et au moment du testing, reflétant ainsi les expositions pré- et post-natales. Les relations entre les niveaux sanguins d’ADH et les PEVs ont été examinées à l’aide d’analyses de régression multiples, en tenant compte des contaminants environnementaux et d’autres variables potentiellement confondantes. Aucune association significative n’a été trouvée en ce qui concerne les stimuli de mouvement. Cependant, après ajustement pour les covariables, les concentrations d’ADH à la naissance étaient associées à une latence plus courte des composantes N1 et P1 des PEVs couleur. Notre étude démontre, pour la première fois, des effets bénéfiques de l’exposition prénatale à l’ADH sur le système parvocellulaire à l’âge scolaire.
Resumo:
Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.
Resumo:
L’approche psycholinguistique suggère que la rétention à court terme verbale et le langage dépendent de mécanismes communs. Elle prédit que les caractéristiques linguistiques des items verbaux (e.g. phonologiques, lexicales, sémantiques) influencent le rappel immédiat (1) et que la contribution des niveaux de représentations linguistiques dépend du contexte de rappel, certaines conditions expérimentales (e.g. format des stimuli) favorisant l’utilisation de codes spécifiques (2). Ces prédictions sont évaluées par le biais de deux études empiriques réalisées auprès d’une patiente cérébrolésée qui présente une atteinte du traitement phonologique (I.R.) et de participants contrôles. Une première étude (Article 1) teste l’impact des modes de présentation et de rappel sur les effets de similarité phonologique et de catégorie sémantique de listes de mots. Une seconde étude (Article 2) évalue la contribution du code orthographique en mémoire à court terme (MCT) verbale en testant l’effet de la densité du voisinage orthographique des mots sur le rappel sériel immédiat de mots présentés visuellement. Compte tenu du rôle déterminant du code phonologique en MCT et du type d’atteinte de I.R., des effets linguistiques distincts étaient attendus chez elle et chez les contrôles. Selon le contexte de rappel, des effets sémantiques (Article 1) et orthographiques (Article 2) plus importants étaient prédits chez I.R. et des effets phonologiques plus marqués étaient attendus chez les participants contrôles. Chez I.R., le rappel est influencé par les caractéristiques sémantiques et orthographiques des mots, mais peu par leurs caractéristiques phonologiques et le contexte de rappel module l’utilisation de différents niveaux de représentations linguistiques. Chez les contrôles, une contribution relativement plus stable des représentations phonologiques est observée. Les données appuient une approche psycholinguistique qui postule que des mécanismes communs régissent la rétention à court terme verbale et le langage. Les implications théoriques et cliniques des résultats sont discutées en regard de modèles psycholinguistiques actuels.
Resumo:
La situation d’un patient trop malade pour une transplantation et qui est maintenu à long terme aux soins intensifs (SI) avec l’aide d’un dispositif d'assistance ventriculaire (DAV) peut évoluer de multiples façons. Malheureusement, plusieurs soignants vivent un malaise lorsque ce patient survit avec des complications, sans possibilité de transplantation cardiaque ni de retour à domicile. Par conséquent, différents buts thérapeutiques sont poursuivis au sein de l’équipe soignante. L’étude avait pour objectifs de cerner les buts poursuivis par les professionnels de la santé œuvrant auprès de ce type de patient, de clarifier les facteurs influençant les buts poursuivis et de mieux connaître les difficultés éprouvées par l’équipe soignante dans l’élaboration d’un but commun. La phénoménologie a été utilisée comme méthodologie de définition de la problématique. L’échantillon comprenait 12 participants représentant les infirmières, médecins et perfusionnistes d'une unité de SI, travaillant auprès de ce type de patient. Chacun des participants a fait l’objet d’une entrevue individuelle, semi-dirigée et enregistrée sur appareil audio. Il leur a d’abord été présenté une vignette à partir de laquelle ont été posées un certain nombre de questions identiques pour tous. Dans leurs réponses à ces questions, les participants ont eu la possibilité de s’exprimer autant sur leur expérience que sur le contexte du phénomène. Une seconde rencontre a été nécessaire afin de valider ou de corriger l’interprétation de ce que chacun avait exprimé durant l’entrevue. L'analyse des données témoigne d’un manque d’harmonie quant au but à poursuivre à l’égard du patient en question. Environ la moitié des participants visent la transplantation, alors que les autres poursuivent d’autres buts comme la sortie des SI, la limitation des traitements ou les soins palliatifs. Les participants sont influencés majoritairement par les volontés du patient, l'absence de mécanisme formel de communication entre eux et les facteurs professionnels tels que : les valeurs, les pratiques et l’environnement, sans oublier les rapports de pouvoir. Un certain nombre de barrières empêchent l’équipe de déterminer un but commun. Pour vaincre ces obstacles et s’entendre sur les buts à poursuivre en équipe, le développement de la communication multidisciplinaire s’impose. Pour y arriver, deux prérequis doivent être développés : l’intention éthique et l’engagement.
Resumo:
Dans un rapport publié au dernier trimestre 2009, le comité sur le gouvernement d’entreprise de l’American Bar Association présente les transformations qui affectent les entreprises américaines depuis quelques années et se montre favorable à une adaptation des principes de bonne gouvernance. A l’instar des prises de position à l’échelon international ou européen, l’American Bar Association propose une redéfinition des responsabilités du conseil d’administration et des actionnaires. Ainsi, si le conseil d’administration se voit renforcer dans son rôle d’organe élu devant inscrire son action dans une démarche de long-terme, les actionnaires sont encouragés à adopter un comportement proactif en donnant à leur droit de vote toute l’importance qu’il mérite. Ce document de l’ABA constitue une précieuse réflexion sur l’avenir du corporate governance, tant la transformation des pouvoirs économiques que constate l’American Bar Association ne se cantonne pas aux frontières états-uniennes.
Resumo:
Réalisé en collaboration avec l'équipe de l'Unité de jour de diabète de l'Hôtel-Dieu du CHUM: Hortensia Mircescu M.D., Françoise Desrochers, Michelle Messier et Stéphanie Chanel Lefort.
Resumo:
L'activité cérébrale, reliée spécifiquement à la rétention d'information en mémoire à court-terme tactile, a été investiguée à l'aide de l'enregistrement des champs magnétiques produits par l'activité neuronale générée durant la période de rétention par une tâche de mémoire tactile. Une, deux, trois ou quatre positions, sur une possibilité de huit sur les phalangines et les phalangettes, de la main gauche ou droite, lors de blocs d'essai différents, ont été stimulées simultanément. Le patron de stimulation tactile devait être retenu pendant 1800 ms avant d'être comparé avec un patron test qui était, soit identique, soit différent par une seule position. Nos analyses se sont concentrées sur les régions du cerveau qui montraient une augmentation monotone du niveau d'activité soutenu durant la période de rétention pour un nombre croissant de positions à retenir dans le patron de stimulation. Ces régions ont plus de chance de participer à la rétention active de l'information à maintenir en mémoire à court-terme tactile. Le gyrus cingulaire (BA32), le gyrus frontal supérieur droit (BA 8), le precuneus gauche (BA 7, 19), le gyrus postcentral gauche (BA 7), le gyrus precentral droit (BA 6), le gyrus frontal supérieur gauche (BA 6) et le lobule pariétal inférieur droit (BA 40) semblent tous impliqués dans un réseau mnésique qui maintient les informations sensorielles tactiles dans un système de mémoire à court-terme spécialisé pour l'information tactile.
Resumo:
Ciblant la réduction des inégalités sociales de santé, le Québec a établi une stratégie de soutien au développement des communautés en santé publique. Or, un usage ambigu du terme de « communauté » est identifiable dans les documents officiels de santé publique au Québec, ce qui pose des questions d’équité et de justice sociale. D'abord, cette imprécision permet mal l’application du soutien au développement des communautés et laisse présager la même difficulté quant à l’objectif de réduction des inégalités sociales de santé qui s’y rattache. Aussi, cette situation pose un problème d’équité, puisqu’elle mène difficilement à la justification des choix des communautés qui seront soutenues pour leur développement. Le premier Chapitre de ce mémoire confirme alors l’hypothèse selon laquelle on ne s’efforce pas suffisamment pour rendre compréhensible la notion de « communauté » en santé publique, à l’aide d’une analyse de contenu des documents de santé publique québécois. Le deuxième chapitre explore diverses compréhensions du terme à travers les sciences sociales. On propose alors la typologie de Vibert pour démontrer la richesse sociohistorique du concept de « communauté » et ses enjeux et pour permettre d’éclairer les professionnels de santé quant aux choix des communautés qu’ils soutiendront dans leur pratique. Enfin, si plusieurs acceptations du terme de « communauté » sont justifiables en santé publique, alors sous quels critères sont sélectionnées les communautés soutenues? Le troisième chapitre y réfléchit, en s’appuyant sur le modèle de justice procédurale développé par Daniels et Sabin pour répondre équitablement aux désaccords liés aux rationnements en santé.
Resumo:
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.
Resumo:
L’âge, le génotype et les traumatismes crâniens (TCC) sont trois facteurs de risque majeurs du développement de la maladie d’Alzheimer (MA). Avec une accumulation d’évidences démontrant la persistance d’anomalies cérébrales suite aux plus légers des TCC, qui affichent d’ailleurs la plus haute incidence, il devient impératif de tester l’hypothèse selon laquelle même les commotions cérébrales puissent interagir avec l’âge et les gènes afin de précipiter la neurodégénération. Trente ex-athlètes de haut niveau (âge M = 60 ans), dont la moitié a subi des commotions cérébrales il y a plus de 30 ans, ont été évalués en neuropsychologie, en neuroimagerie multimodale ainsi qu’en génétique. De nombreuses mesures neuroanatomiques, dont l’expansion du volume des ventricules latéraux, se trouvent à corréler avec divers déficits cognitifs (mémoire différée et de reconnaissance) détectés chez les participants commotionnés. D’un intérêt particulier, certains de ces résultats sont modulés par le polymorphisme nucléotidique simple du gène Apolipoprotéine E. Ces résultats appuient l’hypothèse selon laquelle la commotion cérébrale chez de jeunes athlètes serait un facteur de risque de neurodégénération dans le vieillissement normal.
Resumo:
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique.
Resumo:
Le sujet principal de cette thèse est la distribution des nombres premiers dans les progressions arithmétiques, c'est-à-dire des nombres premiers de la forme $qn+a$, avec $a$ et $q$ des entiers fixés et $n=1,2,3,\dots$ La thèse porte aussi sur la comparaison de différentes suites arithmétiques par rapport à leur comportement dans les progressions arithmétiques. Elle est divisée en quatre chapitres et contient trois articles.
Le premier chapitre est une invitation à la théorie analytique des nombres, suivie d'une revue des outils qui seront utilisés plus tard. Cette introduction comporte aussi certains résultats de recherche, que nous avons cru bon d'inclure au fil du texte.
Le deuxième chapitre contient l'article \emph{Inequities in the Shanks-Rényi prime number
race: an asymptotic formula for the densities}, qui est le fruit de recherche conjointe avec le professeur Greg Martin. Le but de cet article est d'étudier un phénomène appelé le <
Resumo:
Les améliorations dans les protocoles de traitement pour la majorité des cancers pédiatriques ont augmenté de façon marquée les taux de survie. Cependant, des risques élevés de multiples problèmes de santé chez les survivants sont bien documentés. En ce qui concerne spécifiquement les problèmes neuropsychologiques, les principaux facteurs de risque individuels connus à ce jour (l’âge au diagnostic, le genre du patient, l’exposition aux radiations) demeurent insuffisants pour cibler efficacement et prévenir les séquelles à long terme. Les objectifs généraux de cette thèse étaient : 1) la caractérisation des trajectoires individuelles de problèmes de comportement chez une population de patients pédiatriques atteints de leucémie lymphoblastique aiguë; 2) l’identification des principaux déterminants génétiques, médicaux et psychosociaux associés aux problèmes de comportements. Les hypothèses étaient : 1) Il existe une association entre les trajectoires individuelles de problèmes de comportement et a - des facteurs psychosociaux liés au fonctionnement familial, b - des polymorphismes dans les gènes modérateurs des effets thérapeutiques du méthotrexate et des glucocorticoïdes, c - des variables liées aux traitements oncologiques. 2) L'utilisation de modèles statistiques multi-niveaux peut permettre d’effectuer cette caractérisation des trajectoires individuelles et l’identification des facteurs de risque associés. 138 patients pédiatriques (0-18 ans) ayant reçu un diagnostic de leucémie lymphoblastique aiguë entre 1993 et 1999 au CHU Ste-Justine ont participé à une étude longitudinale d’une durée de 4 ans. Un instrument validé et standardisés, le Child Behavior Checklist, a été utilisé pour obtenir un indice de problèmes de comportement, tel que rapporté par la mère, au moment du diagnostic, puis 1, 2, 3 et 4 ans post-diagnostic. Des données génétiques, psychosociales et médicales ont aussi été collectées au cours de cette même étude longitudinale, puis ont été exploitées dans les modélisations statistiques effectuées. Les résultats obtenus suggèrent que les problèmes de comportement de type internalisés et externalisés possèdent des trajectoires et des facteurs de risque distincts. Les problèmes internalisés sont des manifestations de troubles affectifs chez le patient, tels que des symptômes dépressifs ou anxieux, par exemple. Ceux-ci sont très prévalents tôt après le diagnostic et se normalisent par la suite, indiquant des difficultés significatives, mais temporaires. Des facteurs médicaux exacerbant l'expérience de stress, soit le risque de rechute associé au diagnostic et les complications médicales affectant la durée de l'hospitalisation, ralentissent cette normalisation. Les problèmes externalisés se manifestent dans le contact avec autrui; des démonstrations d’agression ou de violence font partie des symptômes. Les problèmes externalisés sont plus stables dans le temps relativement aux problèmes internalisés. Des variables pharmacologiques et génétiques contribuent aux différences individuelles : l'administration d’un glucocorticoïde plus puissant du point de vue des effets pharmacologiques et toxicologiques, ainsi que l’homozygotie pour l’haplotype -786C844T du gène NOS3 sont liés à la modulation des scores de problèmes externalisés au fil du temps. Finalement, le niveau de stress familial perçu au diagnostic est positivement corrélé avec le niveau initial de problèmes externalisés chez le patient, tandis que peu après la fin de la période d’induction, le niveau de stress familial est en lien avec le niveau initial de problèmes internalisés. Ces résultats supportent l'idée qu'une approche holistique est essentielle pour espérer mettre en place des interventions préventives efficaces dans cette population. À long terme, ces connaissances pourraient contribuer significativement à l'amélioration de la qualité de vie des patients. Ces travaux enrichissent les connaissances actuelles en soulignant les bénéfices des suivis longitudinaux et multidisciplinaires pour comprendre la dynamique de changement opérant chez les patients. Le décloisonnement des savoirs semble devenir incontournable pour aspirer dépasser le cadre descriptif et atteindre un certain niveau de compréhension des phénomènes observés. Malgré des défis méthodologiques et logistiques évidents, ce type d’approche est non seulement souhaitable pour étudier des processus dynamiques, mais les travaux présentés dans cette thèse indiquent que cela est possible avec les moyens analytiques actuels.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal