240 resultados para Statistique Bayésienne
Resumo:
La tradition sociologique oppose généralement deux thèses : individualiste et holiste. Ces caractérisations laissent entendre que la première thèse s’attarde à l’action des individus pour expliquer la société. Ce style s’est développé surtout en Allemagne grâce à Max Weber. La thèse holiste prend une position plus globale en expliquant la société par des faits sociaux. Celle-ci est dite française par l’entremise du père de la sociologie, Émile Durkheim. Pourtant, plusieurs auteurs français ont snobé la tradition allemande pour ramener à l’avant-scène un compatriote qui s’est opposé à Durkheim : Gabriel Tarde. Ces réintroductions ont été produites pour s’opposer aux thèses durkheimiennes qui laisseraient l’individu victime du contexte social dans lequel il se trouve. La sociologie allemande propose déjà une opposition de ce type avec les théories postulant un objet réel et particulier à la sociologie. Pourquoi réintroduire un auteur disparu en sociologie pour prendre la place d’autres qui sont encore là? L’hypothèse serait que Tarde propose un individualisme différent qui se traduirait par une notion d’individu particulière. L’étude comparative du corpus durkheimien et tardien révèle pourtant que ces deux auteurs partagent la plupart des caractéristiques associées à la définition du sens commun de l’individu. L’opposition entre Durkheim et Tarde ne relève pas de la place de l’individu dans la science sociale, mais d’une interprétation différente de certains aspects de la théorie statistique. Ces théories sociales ont été construites grâce à cette notion ce qui laisse penser que certains des problèmes explicatifs de ces dernières pourraient être liés à cette base.
Resumo:
Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.
Resumo:
Les modèles de compréhension statistiques appliqués à des applications vocales nécessitent beaucoup de données pour être entraînés. Souvent, une même application doit pouvoir supporter plusieurs langues, c’est le cas avec les pays ayant plusieurs langues officielles. Il s’agit donc de gérer les mêmes requêtes des utilisateurs, lesquelles présentent une sémantique similaire, mais dans plusieurs langues différentes. Ce projet présente des techniques pour déployer automatiquement un modèle de compréhension statistique d’une langue source vers une langue cible. Ceci afin de réduire le nombre de données nécessaires ainsi que le temps relié au déploiement d’une application dans une nouvelle langue. Premièrement, une approche basée sur les techniques de traduction automatique est présentée. Ensuite une approche utilisant un espace sémantique commun pour comparer plusieurs langues a été développée. Ces deux méthodes sont comparées pour vérifier leurs limites et leurs faisabilités. L’apport de ce projet se situe dans l’amélioration d’un modèle de traduction grâce à l’ajout de données très proche de l’application ainsi que d’une nouvelle façon d’inférer un espace sémantique multilingue.
Resumo:
L’objectif de recherche principal poursuivi dans cette thèse de doctorat est de mieux comprendre le rôle d’une insatisfaction corporelle dans l’adoption de pratiques de maintien et de changement du poids chez des adolescent(e)s québécois(es). Pour atteindre cet objectif de recherche principal, trois articles scientifiques liés les uns aux autres ont été rédigés. Chaque article poursuit des objectifs spécifiques (1er article: estimer les proportions d’adolescent(e)s québécois(e)s poursuivant un objectif de poids apparié et non-apparié à leur poids actuel et identifier les déterminants des objectifs de poids non-apparié au poids actuel, 2e article: identifier des associations entre un objectif de poids apparié vs. non-apparié au poids actuel et la fréquence d’utilisation de différents comportements liés au poids et à l’alimentation, 3e article: observer des associations entre différents degrés d’insatisfaction corporelle et l’utilisation de divers comportements liés au poids et à l’alimentation et examiner le rôle modérateur d’un objectif de poids apparié vs. non-apparié au poids actuel dans ces associations) permettant de répondre à l’objectif de recherche principal. Ces articles ont tous été élaborés à partir de l’analyse secondaire d’une banque de données quantitatives constituée par l’Institut de la statistique du Québec (ISQ) et nommée: Enquête sociale et de santé auprès des enfants et des adolescents québécois (ESSEA). L’ESSEA a été constitué auprès d’un échantillon populationnel et représentatif d’enfants et d’adolescent(e)s québécois(es) âgé(e)s de neuf, 13 et 16 ans. Les résultats de cette thèse indiquent qu’une insatisfaction corporelle est associée à la poursuite d’un objectif de poids non-apparié au poids actuel, ainsi qu’à l’utilisation de comportements liés au poids et à l’alimentation sains, malsains et déviants. Des associations ont également été observées entre l’objectif de poids poursuivi par un adolescent(e) et divers comportements utilisés pour l’atteindre. En effet, la poursuite d’un objectif de poids non-apparié au poids actuel est associée à l’utilisation de comportements malsains. Cette association n’est cependant pas présente en ce qui à trait à l’utilisation de comportements sains et déviants, ceux-ci étant strictement prédits par une insatisfaction corporelle. Des effets de médiation et de modération ont aussi été identifiés. Une insatisfaction corporelle est une variable de médiation entre une détresse psychologique chez les adolescentes et la poursuite d’un objectif de poids non-apparié au poids actuel. Finalement, un objectif de poids non-apparié au poids actuel est une variable modifiant l’association entre une insatisfaction corporelle et l’utilisation de comportements malsains chez les adolescent(e)s québécois(es). En conclusion, il existe diverses associations entre une insatisfaction corporelle et l’adoption de pratiques de maintien et de changement du poids chez des adolescent(e)s québécois(es). Une insatisfaction corporelle est donc une cible d’intervention pertinente pour la santé publique puisqu’elle peut servir de base à l’élaboration d’interventions visant la promotion d’un poids santé ainsi que de saines stratégies de contrôle du poids.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Ce mémoire contient un article ayant été soumis à la Revue de Psychoéducation. Cet article a été rédigé avec comme co-auteur Michel Janosz
Resumo:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Resumo:
L’objectif de cette étude était d’évaluer et de comparer la force d’adhésion de deux résines de collage: le ClearfilTM Esthetic Cement & DC Bond Kit (C) et le RelyXTM Unicem (R), sur trois adhérents différents : une surface d’émail, un alliage de métaux non précieux (Np) et un alliage de métaux semi-précieux (Sp). La surface des échantillons des alliages métalliques a subi différents traitements de surface. Sur l’émail (n=15) ainsi que sur les plaquettes d’alliages Np et Sp (n=15), des cylindres de résine étaient appliqués et polymérisés. Suite au processus de collage, les échantillons ont été incubés à 37°C pendant 24 heures, puis ont subi 500 cycles de thermocyclage. Des tests de cisaillement ont été effectués, suivi par l’analyse de la surface des échantillons au microscope à balayage électronique. Une comparaison de type T-test et des comparaisons multiples post hoc, ont été effectuées pour l’analyse statistique (p 0,05). Sur l’émail, les résultats ont démontré que la résine C présentait une force d'adhésion moyenne statistiquement supérieure (33,97±17,18 MPa) à la résine R (10,48±11,23 MPa) (p 0,05). Le type d’alliage utilisé n’influençait pas la force d’adhésion, et ce, peu importe le type de résine de collage (p>0,05). Pour le groupe Sp, la résine C a démontré une adhésion statistiquement supérieure à la résine R, et ce, pour tous les traitements de surface (p 0,05). En conclusion, la résine C a démontré des résultats d’adhésion significativement supérieurs à la résine R sur l’émail ainsi que sur presque toutes les surfaces traitées des alliages de métaux.
Resumo:
Introduction: Le gène O6-méthylguanine-ADN méthyltransferase (MGMT) code pour une enzyme spécifique réparatrice de l’ADN qui protège les cellules de la toxicité des agents alkylants. Ainsi, l’activité du MGMT est un mécanisme majeur de résistance aux agents alkylants. Il a été démontré qu’une diminution de l’expression du gène MGMT par une hyperméthylation du promoteur résulte en une amélioration de la survie chez les patients avec certains types de tumeurs qui sont traitées avec des agents chimiothérapeuthique alkylants. Objectifs: Déterminer la prévalence de la méthylation du gène MGMT chez des patients avec des cancers épidermoïdes localement avancés de la sphère ORL traités avec chimioradiothérapie et évaluer l’impact de cette méthylation sur la survie. Méthodes: Sur 428 patients consécutifs, traités avec chimioradiothérapie à notre institution et suivis pour un période médiane de 37 mois, 199 spécimens chirurgicaux paraffinés ont été récupérés. L’ADN était extrait et modifié par le traitement au bisulfite. Une réaction en chaîne de la polymérase, spécifique à la méthylation était entreprise pour évaluer l’état de méthylation du promoteur du gène du MGMT. Les résultats de laboratoire étaient corrélés avec la réponse clinique. L’analyse statistique était exécutée à l’aide du test de Fisher pour les données catégoriques et à l’aide des courbes de Kaplan-Meier pour les échecs au traitement. Résultats : Des 199 extraits d’ADN initiaux, 173 (87%) étaient modifiés au bisulfite avec succès. Des ces spécimens modifiés, 71 (41%) ont démontré une hyperméthylation du MGMT. Pour les cas de méthylation et nonméthylation du MGMT, les caractéristiques des patients n’étaient pas significativement différentes. Les taux de réponse étaient 71 et 73% (p=NS) respectivement. Le contrôle locorégional était respectivement 87 et 77% (p=0.26), la survie sans maladie était 80 et 60% (p=0.38), la survie sans métastase à distance était 92 et 78% (p=0.08) et la survie globale était 64 et 62% (p=0.99) à 3 ans. Conclusions : L’état de méthylation du MGMT est fortement prévalent (41%) et semble avoir un possible impact bénéfique sur la survie quand la chimioradiothérapie est administrée aux patients avec des stades avancés de cancers tête et cou.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.
Resumo:
Thomas G. Brown, Ph.D., co-directeur de recherche
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Resumo:
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Resumo:
Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis l’an 2000. Ainsi, il est pertinent de mieux comprendre l’infection chez les animaux de compagnie, puisqu’ils sont potentiellement un réservoir du parasite. Durant l’année 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien qu’il n’existe pas de différence significative entre la prévalence du parasite chez le chat et le chien pour l’année 2008. L’âge (p = 0,0001) et l’infection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi l’ensemble des variables testées chez le chat (l’âge, le sexe, la saison et l’infection concomitante par Giardia spp.), aucune n’a été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité d’individus testés pour cette espèce. Un suivi de l’excrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que l’excrétion des ookystes peut se faire sur une période de sept mois et que le taux d’excrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif n’a toutefois été obtenu. Afin d’augmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à l’avenir de travailler sur un nombre d’animaux beaucoup plus important.
Resumo:
Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.