999 resultados para Statistique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thomas G. Brown, Ph.D., co-directeur de recherche

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis l’an 2000. Ainsi, il est pertinent de mieux comprendre l’infection chez les animaux de compagnie, puisqu’ils sont potentiellement un réservoir du parasite. Durant l’année 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien qu’il n’existe pas de différence significative entre la prévalence du parasite chez le chat et le chien pour l’année 2008. L’âge (p = 0,0001) et l’infection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi l’ensemble des variables testées chez le chat (l’âge, le sexe, la saison et l’infection concomitante par Giardia spp.), aucune n’a été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité d’individus testés pour cette espèce. Un suivi de l’excrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que l’excrétion des ookystes peut se faire sur une période de sept mois et que le taux d’excrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif n’a toutefois été obtenu. Afin d’augmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à l’avenir de travailler sur un nombre d’animaux beaucoup plus important.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de recherche présentés ici avaient pour objectif principal la synthèse de copolymères statistiques à base d’éthylène et d’acide acrylique (AA). Pour cela, la déprotection des groupements esters d’un copolymère statistique précurseur, le poly(éthylène-co-(tert-butyl)acrylate), a été effectuée par hydrolyse à l’aide d’iodure de triméthylsilyle. La synthèse de ce précurseur est réalisée par polymérisation catalytique en présence d’un système à base de Palladium (Pd). Le deuxième objectif a été d’étudier et de caractériser des polymères synthétisés à l’état solide et en suspension colloïdale. Plusieurs copolymères précurseurs comprenant différents pourcentages molaires en tert-butyl acrylate (4 à 12% molaires) ont été synthétisés avec succès, puis déprotégés par hydrolyse pour obtenir des poly(éthylène-coacide acrylique) (pE-co-AA) avec différentes compositions. Seuls les copolymères comprenant 10% molaire ou plus de AA sont solubles dans le Tétrahydrofurane (THF) et uniquement dans ce solvant. De telles solutions peuvent être dialysées dans l’eau, ce qui conduit à un échange lent entre cette dernière et le THF, et l’autoassemblage du copolymère dans l’eau peut ensuite être étudié. C’est ainsi qu’ont pu être observées des nanoparticules stables dans le temps dont le comportement est sensible au pH et à la température. Les polymères synthétisés ont été caractérisés par Résonance Magnétique Nucléaire (RMN) ainsi que par spectroscopie Infra-Rouge (IR), avant et après déprotection. Les pourcentages molaires d’AA ont été déterminés par combinaison des résultats de RMN et ii de titrages conductimètriques. A l’état solide, les échantillons ont été analysés par Calorimétrie différentielle à balayage (DSC) et par Diffraction des rayons X. Les solutions colloïdales des polymères pE-co-AA ont été caractérisées par Diffusion dynamique de la lumière et par la DSC-haute sensibilité. De la microscopie électronique à transmission (TEM) a permis de visualiser la forme et la taille des nanoparticules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Organisation mondiale de la santé animale (OIE) est l’institution internationale responsable de la mise en place des mesures sanitaires associées aux échanges commerciaux d’animaux vivants. Le zonage est une méthode de contrôle recommandée par l’OIE pour certaines maladies infectieuses, dont l’influenza aviaire. Les éclosions d’influenza aviaire été extrêmement coûteuses pour l’industrie avicole partout dans le monde. Afin d’évaluer la possibilité d’user de cette approche en Ontario, les données sur les sites de production avicole ont été fournies par les fédérations d’éleveurs de volailles ce cette province. L’information portant sur les industries associées à la production avicole, soit les meuneries, les abattoirs, les couvoirs, et les usines de classification d’œufs, a été obtenue par l’entremise de plusieurs sources, dont des représentants de l’industrie avicole. Des diagrammes de flux a été crée afin de comprendre les interactions entre les sites de production et les industries associées à ceux-ci. Ces industries constituaient les éléments de bas nécessaires au zonage. Cette analyse a permis de créer une base de données portant sur intrants et extrants de production pour chaque site d’élevage avicole, ainsi que pour les sites de production des industries associées à l’aviculture. À l’aide du logiciel ArcGIS, cette information a été fusionnée à des données géospatiales de Statistique Canada de l’Ontario et du Québec. La base de données résultante a permis de réaliser les essais de zonage. Soixante-douze essais ont été réalisés. Quatre ont été retenus car celles minimisaient de façon similaire les pertes de production de l’industrie. Ces essais montrent que la méthode utilisée pour l’étude du zonage peut démontrer les déficits et les surplus de production de l’industrie avicole commerciale en Ontario. Ceux-ci pourront servir de point de départ lors des discussions des intervenants de l’industrie avicole, étant donné que la coopération et la communication sont essentielles au succès du zonage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les recherches québécoises sur l’insertion en emploi des jeunes et dans les considérations de la population en général, il est bien ancré que le fait de décrocher du secondaire sans avoir obtenu de diplôme mène éventuellement et inévitablement à des difficultés d’insertion dans le marché du travail. Toutefois, lorsque l’on entreprend de vérifier l’origine de cette considération, on ne trouve que très peu de réponses, puisque les enquêtes sur l’insertion des jeunes au Québec et au Canada ont presque toujours ignoré les jeunes sans diplômes et les recherches traitant du sujet citent souvent des sources non probantes. Dans ce mémoire, nous avons utilisé une enquête récente qui n’est pas restreinte aux seuls diplômés pour étudier l’insertion des jeunes, en faisant l’hypothèse que les jeunes décrocheurs du secondaire du Québec et du reste du Canada n’ont pas significativement plus de chances de connaître des insertions en emploi difficiles que les jeunes n’ayant que ce niveau de diplôme à leur actif. Nos résultats ne nous permettent pas d’affirmer que les décrocheurs ne connaissent pas plus de problèmes d’insertion que les diplômés du secondaire, mais ils montrent tout de même que d’autres variables sont bien plus déterminantes. L’intérêt de ce mémoire ne s’arrête pas à la comparaison statistique entre les deux groupes de jeunes à l’étude, il se veut être une réflexion théorique sur la notion d’insertion, sur les raisons qui expliquent son caractère restrictif, et sur les paradigmes qui inspirent ce champ de recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. De plus en plus d’enfants fréquentent les milieux de garde et y consomment leur repas. Les éducatrices présentes constituent des modèles dont les attitudes et les pratiques alimentaires peuvent contribuer au développement des habitudes alimentaires des enfants. Toutefois, peu d’études ont été menées sur le sujet. Objectifs. Décrire les attitudes et les stratégies d’éducatrices en milieux de garde au Québec à l’égard de l’alimentation des enfants et dégager les styles alimentaires dominants. Méthode. La collecte de données a eu lieu par sondage sur le site Web www.nospetitsmangeurs.org. À partir de 86 énoncés, la recherche a documenté les styles et pratiques alimentaires des éducatrices au moyen de huit mises en situation : mets principal non apprécié par l’éducatrice, aliment particulier non apprécié par un enfant, nouveau mets non désiré par les enfants, enfant difficile ne voulant pas manger, enfant qui n’a pas faim, fillette avec embonpoint, fillette de petit poids et enfant n’ayant pas terminé son repas. Analyse statistique. Des statistiques descriptives, des échelles de fiabilité et des corrélations ont été générées. Des tests de t pour échantillons appariés ont également été utilisés pour évaluer le degré relatif des styles alimentaires. Résultats. Au total, 371 répondants ont rempli l’ensemble du questionnaire. Globalement, les éducatrices étudiées utilisent le style alimentaire démocratique. Celles-ci mentionnent représenter des modèles pour les enfants. Elles encouragent aussi les enfants à manger et utilisent la division des responsabilités. Paradoxalement, la pratique alimentaire associée au style autoritaire la plus utilisée est la pression à manger, pratique en opposition avec le concept de division des responsabilités. Conclusion. Cette étude indique que les éducatrices démontrent des attitudes positives à l’égard de l’alimentation des enfants. Malgré certaines discordances à l’égard de stratégies utilisées, ces résultats sont encourageants, car le style alimentaire démocratique permet aux enfants de reconnaitre leurs signaux de faim et de satiété.