240 resultados para Statistique Bayésienne
Resumo:
Au cours de la cytokinèse, le génome dédoublé est compartimentalisé en deux cellules filles. L’anneau contractile, une structure dynamique, est constitué d’actine, myosine (NMY-II) et d’autres protéines accessoires. NMY-2 est le seul moteur protéique impliqué dans la contraction de l’anneau durant la cytokinèse. Depuis longtemps, il a été considéré que celle-ci glissait le long des filaments d’actine grâce à sa capacité de traction. Récemment, plusieurs études ont découvert que son activité réticulante joue un rôle en cytokinèse et il est connu que la NMY-2 peut s’assembler en filaments bipolaires à partir de dimères. Ainsi, nous postulons que leur dimension (nombre de moteurs ATPasiques) pourrait dicter leur contribution en activité motrice et réticulante. Afin de déterminer la composition des filaments corticaux de NMY-2, nous avons utilisé une technique d'imagerie de molécules individuelles à l’aide de la microscopie TIRF. J’ai trouvé à travers l’analyse statistique de la distribution des NMY-2 mesurés que les filaments sont assemblés à deux dimensions constantes: Des filaments composés de 20 dimères et 30 dimères. La kinase Rho est une activatrice de NMY-2 nécessaire pour les niveaux physiologiques de NMY-2 sur l’anneau contractile, pour des cinétiques et fermeture concentrique de l’anneau. La déplétion de RhoK augmente l’abondance relative des filaments de 20 dimères. Ainsi, RhoK pourrait réguler le recrutement de la NMY et aussi l’assemblage des filaments corticaux de NMY-2. De plus, à l’aide de la microscopie confocale à temps réel, j’ai trouvé que lors de la déplétion de RhoK, il se produit une réduction du recrutement et du délai d’initiation du sillon, une fermeture lente et une augmentation significative de la concentricité de l’anneau. De plus, j’ai mesuré des défauts dans l’organisation corticale de l’anneau contractile en patch. La déplétion de MRCK-1 n’affecte pas l’initiation du sillon, les cinétiques de fermeture, ou la fermeture concentrique de l’anneau. Paradoxalement, la déplétion de MRCK-1 augmente le recrutement cortical de NMY-2, mais quand depleté simultanément avec Rho-K il diminue NMY-2 à l’équateur comparé à la déplétion seule de Rho-K. De plus, la double déplétion, conduit à un phénotype de concentricité de l’anneau, suivie d’un recentrage.
Resumo:
Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
La démocratisation scolaire va de pair avec l’enjeu contemporain de l’adaptation scolaire. Une catégorie d’élèves handicapés en difficulté d’apprentissage ou d’adaptation (EHDAA) classifiés par le MELS demeure plus problématique que les autres. Il s’agit des élèves présentant des troubles de comportements extériorisés. Ces élèves sont plus susceptibles que les autres de ne pas suivre le cheminement régulier, de décrocher et de connaître des difficultés d’intégration professionnelle. Comment expliquer alors qu’une minorité d’entre eux, contre toute probabilité statistique, parvient à graduer et à s’insérer dans une carrière stimulante ? Comment peuvent s’atténuer les troubles de comportement à l’âge adulte? Ce mémoire a pour ambition d’apporter un éclairage sur ces questionnements et propose une analyse sociologique des facteurs de persévérance scolaire et d’insertion professionnelle d’adultes ayant présenté des troubles de comportements extériorisés durant leurs études secondaires. Il repose sur l’analyse d’entretiens biographiques de deux individus répondant à ces critères. L’analyse de leur trajectoire démontre que leur insertion sociale s’est formée grâce à l’ « interconnaissance » et l’ « interreconnaissance » de différents types de capital tel qu’entendu par Pierre Bourdieu. En se basant également sur la méthode d’analyse des récits d’insertion proposée par Demazière et Dubar, quatre tendances furent dégagées quant à la manière dont les ressources des enquêtés furent mobilisées. Bien que le matériau soit modeste, ce mémoire jette un regard inédit sur plusieurs facettes du phénomène qui espérons-le, retiendra l’attention d’autres chercheurs qui approfondiront les pistes mises au jour dans ce mémoire.
Resumo:
La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.
Resumo:
Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie option analyse criminologique
Resumo:
L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php
Resumo:
Thèse réalisée en cotutelle France- Québec
Resumo:
Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.
Resumo:
La voix est tout sauf un stimulus auditif ordinaire. Pour cause, elle prend son importance de manière très précoce chez l’Homme lorsque, dans l’environnement amniotique, le fœtus entend pour la toute première fois la voix de sa mère. C’est en quelque sorte par l’intermédiaire de cette voix que les premiers contacts avec le monde extérieur, mais également avec l’Autre, s’effectuent. Le statut particulier de la voix humaine perdure au fil du développement, devenant plus tard le principal médium véhiculant le langage oral, si significatif pour l’Homme. En parallèle, et de manière tout aussi adaptative, elle permet la transmission d’informations non langagières renseignant sur l’identité, l’état émotionnel mais également le statut social de chaque individu. C’est ainsi que simplement en entendant la voix d’une personne inconnue, il est généralement possible d’en extrapoler son âge, son genre, mais également d’avoir une idée assez précise de l’état émotionnel dans lequel elle se trouve. Les capacités permettant d’extraire de la voix les divers éléments informationnels qu’elle contient ne seraient toutefois pas stables au fil du temps. Ainsi, le vieillissement normal semble associé à des difficultés de traitement des informations vocales de nature langagière, mais également non langagière. De nombreuses études se sont intéressées au déclin des capacités de traitement du discours avec l’âge. Beaucoup moins de travaux ont cependant considéré les conséquences du vieillissement sur le domaine paralinguistique et, lorsque des travaux s’y sont attardés, c’est essentiellement la sphère affective qui a été investiguée. En raison de ce peu d’études, mais également de leur focus portant spécifiquement sur la sphère émotionnelle, il est extrêmement ardu de généraliser les résultats obtenus au traitement vocal général. La présente thèse s’est donc intéressée aux capacités de traitement de la voix dans le vieillissement normal. La première étude de cette thèse (Article 1) avait pour objectif d’évaluer l’impact du vieillissement normal sur les capacités comportementales de traitement paralinguistique vocal non émotionnel. Pour ce faire, une batterie informatisée composée de quatre tâches a été élaborée : la batterie d’évaluation de la perception vocale (Batterie EPV; tâches de catégorisation de genre, de discrimination de sources sonores, adaptative de discrimination et de mémorisation). Cette batterie permettait de comparer les performances d’adultes jeunes et âgés lors du traitement de stimuli vocaux et non vocaux, mais également lors du traitement de divers stimuli vocaux. Cette première étude met en évidence, pour trois des quatre tâches comportementales, des performances inférieures chez les adultes âgés et ce, malgré le contrôle statistique des contributions du déclin auditif et cognitif. Pour les aînés, le traitement de stimuli vocaux, en comparaison au traitement de stimuli non vocaux, n’était toutefois pas systématiquement inférieur à celui des jeunes adultes. Sans que les performances ne puissent être prédites par la mesure cognitive utilisée comme covariable (performances au MoCA), il appert que les demandes cognitives inhérentes aux tâches participent à ces différences intergroupes. Le second article de ce travail visait quant à lui à explorer à l’aide de l’imagerie par résonnance magnétique fonctionnelle (IRMf), l’influence du vieillissement normal sur les réseaux neuronaux sous-tendant le traitement de l’information vocale, une telle investigation n’ayant jamais été effectuée auparavant. Pour ce faire, une tâche d’écoute passive (permettant le contraste de blocs de sons vocaux et non vocaux) ainsi qu’une tâche adaptative de discrimination ont été utilisées. La tâche adaptative, basée sur une type de protocole psycoacoustique « up-down », assurait l’obtention de niveau de performance équivalent entre les deux groupes, une condition nécessaire pour la comparaison de groupe au niveau neurofonctionnel. La comparaison des adultes jeunes et âgés n’a mis en évidence aucune disparité quant au recrutement des aires répondant préférentiellement à la voix : les aires vocales temporales (AVT). Ce résultat suggère que l’âge n’affecte pas la mobilisation des aires spécialisées dans le traitement de la voix. Néanmoins, à l’extérieur des AVT et chez les aînés, le sous recrutement d’une portion du cortex auditif a été observé, en parallèle au recrutement additionnel de régions pariétale, temporale et frontale (Article 2 – Étude 1). Lors de la réalisation d’une tâche adaptative de discrimination, contrairement à ce qui était attendu, les seuils de discrimination des deux groupes d’âges étaient comparables. Pour effectuer la tâche, les participants âgés ont cependant recruté un réseau neuronal plus étendu que celui des jeunes adultes, et pour les aînés, l’activation additionnelle de régions frontale et temporale sous-tendaient la réalisation de la tâche (Article 2 - Étude 2). Les données comportementales présentées dans cette thèse suggèrent que l’effet délétère que semble avoir le vieillissement normal sur les capacités de traitement paralinguistique vocal affectif est également retrouvé lors du traitement d’informations vocales émotionnellement neutres. En parallèle, la mise en place de phénomènes de plasticité cérébrale est objectivée. Ces derniers ne toucheraient cependant pas les réseaux spécialisés dans le traitement de la voix, qui seraient recrutés de manière comparable par les adultes jeunes et âgés. Néanmoins, la tâche d’écoute passive a mis en évidence la présence, chez les aînés, du recrutement sous-optimal d’une portion du cortex auditif (gyrus temporal transverse). En parallèle, et ce pour les deux tâches, des réseaux neuronaux surnuméraires étaient sollicitées par les adultes âgés, permettant potentiellement d’assurer, chez les ainés, le maintien de performances adéquates.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Resumo:
La warfarine est un médicament anticoagulant possédant un faible index thérapeutique et une grande variabilité intra et interindividuelle dans la réponse au traitement. Les facteurs déterminants de la réponse à la warfarine ne sont pas tous connus et la présente étude vise à tester l'hypothèse que la pratique régulière d’activité physique puisse y être associée. Nous avons évalué si l’activité physique, mesurée à l’aide de 2 questionnaires différents, était associée à la dose de warfarine et au pourcentage de temps passé à l'intérieur de l'intervalle thérapeutique ciblé (time in therapeutic range : TTR). L’étude a été menée chez les 1064 participants de la Cohorte warfarine de l’Institut de Cardiologie de Montréal (ICM) et chez 618 utilisateurs de warfarine issus de la Biobanque de l’ICM. Nous avons trouvé que, dans les deux cohortes, les patients actifs nécessitaient une dose hebdomadaire moyenne plus élevée que les patients inactifs. L’association perdurait lorsque le modèle statistique était ajusté pour différentes variables connues pour influencer la réponse à la warfarine, telles que le génotype aux gènes CYP2C9 et VKORC1, l’âge, la taille, le poids, et l’INR ciblé. L’INR ciblé est décidé par le médecin et il correspond généralement à 2,0 – 3,0 ou 2,5 – 3,5. Les patients de la Cohorte warfarine avaient aussi plus de chances d’avoir un TTR inférieur à 60%, donc d’être moins stables. La pratique régulière d’activité physique est donc un facteur déterminant de la dose thérapeutique de warfarine et la pratique d'activité physique intensive est associée à un TTR plus faible.