968 resultados para [JEL:C14] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Introduction : La présente étude explore pour la première fois en Afrique, l'association entre l'exposition aux pesticides organochlorés (POC) et le risque de diabète de type 2. L’étude se déroule dans la région du Borgou, au nord du Bénin, où l’utilisation intense de pesticides pour la culture du coton coïncide avec une prévalence élevée du diabète par rapport aux autres régions du pays. Objectifs: 1) Décrire le niveau d’exposition de la population des diabétiques et non diabétiques du Borgou par le taux sérique de certains pesticides organochlorés ; 2) Explorer la relation entre le risque de diabète de type 2 et les concentrations sériques des POC; 3) Examiner l’association entre l’obésité globale, le pourcentage de masse grasse et l’obésité abdominale avec les concentrations sériques des POC; 4) Explorer la contribution de certaines sources d’exposition alimentaire et non-alimentaire aux concentrations sériques des POC. Méthodes : Il s'agit d'une étude cas-témoin qui concerne 258 adultes de 18 à 65 ans identifiés par deux valeurs glycémiques capillaire et veineuse au seuil de 7 mmol/l pour les diabétiques et 5,6mmol/l pour les témoins non diabétiques. Les 129 témoins ont été appariés aux 129 cas selon les critères suivants : l’ethnie, l’âge ± 5ans, le sexe et la localité de résidence. Les informations personnelles et celles portant sur les modes d’exposition ont été recueillies par questionnaire. Les concentrations sériques des POC ont été obtenues par chromatographie gazeuse couplée d’une spectrométrie de masse. L’obésité globale est déterminée par l’IMC ≥ 30 kg/m2. L’obésité abdominale est obtenue par le tour de taille selon les critères consensuels d’Alberti et al. pour la définition du syndrome métabolique. Le pourcentage de masse corporelle a été mesuré par bio-impédance électrique et été considéré comme élevé au seuil de 33% chez les femmes et 25% chez les hommes. Résultats: En comparant les 3ème et premier terciles des concentrations de p,p’-DDE et p,p’-DDT, les sujets du 3e tercile étaient deux à trois fois plus susceptibles de présenter du diabète que ceux du 1er tercile. La probabilité d’obésité abdominale ou de l’obésité générale (en contrôlant pour le statut diabétique) était accrue de trois à cinq fois dans le dernier tercile pour trois des quatre POC qui étaient détectables soit p,p’-DDT, β-HCH et trans-Nonachlore. Les facteurs socioéconomiques associés aux POC sériques sont le niveau d’éducation élevé, un meilleur revenu et la résidence en milieu urbain. Les sources d’exposition non alimentaire significativement associées aux concentrations sériques de POC étaient l’exposition professionnelle mixte (primaire et secondaire) aux pesticides et la consommation de tabac local. L’achat en opposition à l’autoproduction de plusieurs groupes de denrées alimentaire était associé à de plus fortes teneurs de POC. La fréquence de consommation hebdomadaire du poisson, des légumes, du fromage, de l’igname séchée ainsi que du mil, de l’huile de palme et de certaines légumineuses comme le soya, le néré, le niébé et le voandzou était significativement associées aux POC sériques. Conclusion : L’étude a mis en évidence la relation entre le niveau sérique de pesticides organochlorés d’une part, du diabète ou de l’obésité d’autre part. Les concentrations de POC observées au Borgou sont assez élevées et méritent d’être suivies et comparées à celles d’autres régions du pays. Les facteurs contribuant à ces teneurs élevées sont le niveau d’éducation élevé, un meilleur revenu, la résidence en milieu urbain, l’achat et la fréquence de consommation de plusieurs aliments. La contribution du mélange des polluants auxquels les habitants de cette région sont exposés à la prévalence croissante du diabète mérite d’être examinée, notamment les pesticides utilisés actuellement dans la région pour les productions de rente et autres polluants persistants. Ces résultats contribuent à accroître les connaissances sur les facteurs de risque émergents pour le diabète que sont des polluants environnementaux comme les pesticides. Les implications pour la santé publique sont importantes tant pour la prévention des maladies chroniques que pour la sensibilisation des autorités politiques du pays pour une politique agricole et sanitaire adéquate visant la réduction de l’exposition aux pesticides.
Resumo:
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires.
La diffamation sur Internet : actualiser la responsabilité en droit civil et en common law au Canada
Resumo:
En cette ère que plusieurs surnomment le « Web 2.0 », les usagers se sont emparés avec enthousiasme des fonctions liées aux communications et au partage sur Internet, ce médium devenant ainsi une nouvelle plate-forme pour les enjeux liés à la vie privée et à la réputation. La diffamation constitue justement un des problèmes prédominants constatés en lien avec ce contenu électronique, plus particulièrement lorsqu’il est question de contenu généré par les utilisateurs. Face à cet outil permettant une diffusion et une intéractivité sans précédent, comment devons-nous aborder Internet au regard des règles de droit applicables au Canada en matière de diffamation? L’analyse juridique traditionnelle sied-elle aux nouvelles réalités introduites par ce médium? Le bijuridisme canadien nous impose d’étudier parallèlement les régimes de droit civil et de common law et ce, dans une optique comparative afin de comprendre les concepts et le fonctionnement propres à chacune des approches juridiques cohabitant au pays. Cette analyse nous permettra de mettre en lumière les particularités du médium électronique qui se révèlent pertinentes lorsqu’il est question de diffamation et qui font la spécificité des situations et des acteurs en ligne, distinguant ainsi Internet des modes de communications traditionnels que le droit connaît. Cette approche comparative permet de poser un regard critique sur chacun des régimes de droit en vigueur au Canada, considérant la réalité propre à Internet et au contenu généré par les utilisateurs, mais surtout, vise à promouvoir le développement de méthodes d’analyse véritablement ancrées dans le fonctionnement du médium en cause et susceptibles d’évoluer avec celui-ci.
Resumo:
La douleur est une expérience multidimensionnelle comportant des aspects sensoriels, émotionnels et cognitifs. Théoriquement, des méthodes de mesures comportementales, physiologiques, neurophysiologiques et sensorielles peuvent quantifier la douleur. Peu d’études ont étudié la validation des mesures utilisées en médecine vétérinaire. La recherche combine les travaux de Maîtrise et de Doctorat, traite en partie de la validité de méthodes. Dans cet objectif, nos travaux de recherche étudiaient la validité de méthodes comportementales, physiologiques et neurophysiologiques usuelles pour la mesure de la douleur en comparant les expressions de douleur (vache et chien) chez des animaux contrôle par comparaison à des animaux sous analgésie préventive ou sous traitement curatif suivant une douleur induite par chirurgie (modèles de douleur viscérale bovine ou orthopédique canine) ou causée par une maladie naturelle (arthrose canine). Une première étude comparait les mesures de la douleur entre les vaches du groupe placebo et celles sous analgésie postopératoire sur une durée de 21 jours suivant l’induction d’une douleur viscérale chronique. Les vaches du groupe placebo ont présenté une plus forte sensibilité à la douleur et une diminution de la noradrénaline et de la transthyrétine mesurées dans le liquide cérébro-spinal, une diminution de l’activité motrice (AM) (moindre que dans les groupes avec analgésie), de l’agitation enregistrée par vidéo-analyse et une augmentation du stress selon la mesure de l’activité électrodermique (AED). Les méthodes d’intérêt identifiées étaient les marqueurs spinaux, la mesure de la sensibilisation, de comportements par vidéo-analyse et de l’AM par bio-télémétrie. En utilisant des méthodes semblables à celles précédemment décrites, deux études expérimentales de douleur orthopédique ont été réalisées afin de comparer les réponses à la douleur entre des chiens traités avec une analgésie préventive (opioïdes et anti-inflammatoires, étude #2) ou un biphosphonate (tiludronate, étude #3) par comparaison à des chiens contrôles. Seules les échelles de douleur étaient différentes entre les études de recherche. Pour l’étude #2, les ii chiens sous analgésie ont présenté de plus faibles scores de douleur mesurés avec l’échelle de douleur nommée 4A-VET et ceci simultanément à une faible réponse de l’AED une heure après la chirurgie de trochléoplastie. La fréquence du comportement spontané de ‘la marche avec plein appui de la patte opérée’ mesurée à l’aide de la vidéo-analyse augmentait chez les chiens sous analgésie préventive 24 heures après la chirurgie. L’étude #3 démontrait surtout l’apparition de sensibilisation centrale (à la fois par l’évaluation sensorielle quantitative et les marqueurs spinaux) chez les chiens contrôle, 56 jours après l’induction d’arthrose chirurgicale. Ainsi, les chiens traités avec le tiludronate ont présenté une différence sur la substance P et la transthyrétine cérébro-spinale, une diminution de la sensibilisation périphérique, plus d’appui de la patte opérée lors de la marche selon la mesure du pic de force verticale (PFV), une augmentation de la fréquence de ‘la marche avec plein appui de la patte opérée’. La sensibilisation centrale était associée à la diminution de PFV, et une augmentation de l’AED et du comportement spontané de ‘la marche avec plein appui de la patte opérée’. Pour l’étude #4, la validité et la sensibilité des méthodes ont été évaluées dans une condition d’arthrose naturelle chez des chiens traités avec une diète enrichie en moule verte, un produit ayant des effets anti-inflammatoires et chondroprotecteurs attendus. Les chiens traités présentaient une diminution des scores de douleur via l’échelle nommée CSOM, une augmentation de PFV et une augmentation de l’AM. Dans l’ensemble, les résultats confirment que la vidéo-analyse évaluait la douleur de façon objective et pour des modèles différents de douleur et les marqueurs spinaux sont prometteurs. Le PFV était spécifique de la douleur orthopédique. La sensibilisation était présente lors de douleur pathologique. L’AED n’est pas valide pour la mesure de la douleur. La baisse d’AM suggèrerait un comportement de douleur. Les études étaient exploratoires pour les échelles de douleur en raison de leur niveau (débutant) de développement et du manque d’informations sur les qualités métrologiques de ces mesures.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
Le monde actuel, marqué par une augmentation incessante des exigences professionnelles, requiert des enseignants une adaptation constante aux changements sociaux, culturels et économiques. Si, pour les enseignants expérimentés, l’accommodation à ces transformations est accompagnée de plusieurs défis, pour les nouveaux enseignants qui ne maîtrisent pas complètement tous les aspects de la profession, l’intégration au milieu scolaire peut être extrêmement difficile ou même insupportable, au point où certains quittent le métier. Néanmoins, à force de persévérance, un certain nombre des nouveaux enseignants franchissent les obstacles imposés par la profession. Dans leur cas, la satisfaction et l’engagement professionnel peuvent être des caractéristiques importantes qui les incitent à continuer à exercer leurs activités d’enseignement. Dans ce contexte, l’étude vise l’analyse des éléments liés à la construction de l’identité professionnelle des enseignants lors de leur insertion dans le métier, à partir des perceptions des nouveaux enseignants et de celles des gestionnaires des écoles primaires et secondaires. L’harmonie entre la perception de ces deux groupes d’acteurs scolaires peut constituer un important facteur du rendement des professionnels dans leur métier et de l’efficacité des institutions d’enseignement. Ainsi, du côté des nouveaux enseignants, l’étude examine les variables qui peuvent être liées à leur engagement professionnel et de celui des gestionnaires, elle vise à analyser les éléments qui peuvent être liés à leur satisfaction sur le travail effectué par les nouveaux enseignants. La présente étude, de type quantitatif, est constituée des analyses secondaires des données issues des enquêtes pancanadiennes auprès des directions et des enseignants d’écoles primaires et secondaires du Canada, menées en 2005 et 2006 par une équipe de professeurs de différentes universités canadiennes. Les analyses statistiques sont basées sur deux modèles théoriques : (1) l’engagement professionnel des nouveaux enseignants et (2) la satisfaction des gestionnaires sur le travail effectué par les nouveaux enseignants. Ces modèles sont examinés en suivant la théorie classique des tests (TCT) et celle des réponses aux items (TRI) afin de profiter des avantages de chacune des méthodes. Du côté de la TCT, des analyses de cheminement et des modélisations aux équations structurelles ont été effectuées pour examiner les modèles théoriques. Du côté de la TRI, des modélisations de Rasch ont été utilisées pour examiner les propriétés psychométriques des échelles utilisées par la recherche afin de vérifier si les données sont bien ajustées aux modèles et si les items se regroupent de façon logique pour expliquer les traits latents à l’étude. Les résultats mettent en évidence le rapport humain qui définit la profession enseignante. Autrement dit, pour les nouveaux enseignants, les émotions en classe, conséquence du processus d’interaction avec leurs élèves, sont le facteur majeur lié à l’engagement professionnel. Dans le même sens, la relation des nouveaux enseignants avec les divers membres de la communauté scolaire (parents des élèves, gestionnaires, personnel de l’école et autres enseignants) est un facteur-clé de la satisfaction des gestionnaires quant au travail des nouveaux enseignants. Les analyses indiquent également l’importance de la satisfaction au travail dans le modèle des nouveaux enseignants. Cette variable est un important déterminant de l’engagement professionnel et peut être associée à tous les autres éléments du modèle des nouveaux enseignants. Finalement, les résultats indiquent le besoin de construction des variables latentes avec un plus grand nombre d’items pour mieux positionner les personnes dans l’échelle de mesure. Ce résultat est plutôt important pour le modèle des gestionnaires qui indique de mauvais ajustements items-personnes.
Resumo:
Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.
Resumo:
Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.
Resumo:
Les écrits rapportent qu’entre 10% et 40% des personnes atteintes de troubles mentaux ont présenté des comportements agressifs depuis l’établissement du diagnostic, et qu’entre 50% et 65% de ces comportements sont perpétrés envers les membres de la famille (Estroff et al., 1998). Or, les aidants naturels se sentent fréquemment démunis devant le comportement impulsif et agressif de leur proche atteint d’un trouble de santé mentale (Bonin & Lavoie-Tremblay, 2010) et la majorité des proches aidants ne reçoivent pas de soutien professionnel (Doornbos, 2001). À cet effet, une équipe de chercheurs et d’organismes communautaires ont mis sur pied un projet de formation adaptée par et pour les familles relativement à la gestion des comportements agressifs de leur proche atteint d’un trouble de santé mentale s’appuyant sur l’approche OMEGA communautaire (Bonin et al., 2011). La présente recherche est inspirée du modèle de Fresan et ses collaborateurs (2007), qui inclut les familles et leur proche atteint dans la prévention de la rechute et le rétablissement de ce dernier. Cette étude avait donc pour but de décrire et analyser, par un devis mixte, les perceptions de l’agressivité, du fonctionnement familial ainsi que de l’observance au traitement médical de personnes atteintes de troubles mentaux, suite à une formation de gestion des comportements agressifs adaptée par et pour des membres de familles, et suivie par leur proche aidant. Des questionnaires auto-administrés ont été remis et complétés par 25 personnes atteintes et comprenaient trois instruments qui étaient : 1. un questionnaire sociodémographique; 2. le Basis-24 (Eisen, 2007) permettant d’évaluer la condition mentale de la personne atteinte; 3. l’Échelle de perception de l’agressivité permettant de mesurer la fréquence et le niveau des comportements agressifs (De Benedictis et al., 2011); et 4. l'Échelle du fonctionnement familial permettant de mesurer le fonctionnement familial (Epstein, Baldwin, & Bishop, 1983). Des questions supplémentaires au questionnaire portaient sur l’observance au traitement médical et sur les changements observés. Des analyses descriptives et corrélationnelles bivariées ont été réalisées pour analyser les données quantitatives. Par la suite, des entrevues individuelles ont été réalisées auprès de huit personnes atteintes de troubles mentaux dont le membre de famille avait suivi la formation de gestion des comportements agressifs. La méthode d’analyse classique de Miles et Huberman (2003) a été utilisée pour réaliser l’analyse des données. L’analyse des données a permis de dégager les perceptions des personnes atteintes de troubles mentaux au regard de la formation de gestion des comportements agressifs que leur membre de famille avait suivi. Ainsi, le programme de formation OMÉGA adaptée par et pour les familles permettrait d’une part de diminuer l’agressivité et, d’autre part, d’améliorer le climat familial. De plus, selon les personnes atteintes, leur membre de famille était plus à l’écoute et faisait moins preuve d’intrusion, ce qui diminuaient les conflits et favorisaient une meilleure dynamique familiale. Cette étude a mis en évidence qu’il est nécessaire d’impliquer les familles dans les programmes de prévention de la rechute de la maladie mentale dans les soins de première ligne. Cette étude contribue ainsi à l’amélioration des connaissances sur la dynamique famille-patient et sur le rétablissement des personnes atteintes de troubles mentaux. Aussi, cette recherche propose des recommandations pour la recherche, la pratique, la formation et la gestion en sciences infirmières.
Resumo:
La personnalisation et l'adaptation d'environnement multimédia pédagogique a pour but de favoriser l'intégration d'application web de formation en fonction de la personnalité de l'apprenant, de sa progression, de ses préférences et de son contexte d'application. Le contrôle de certaines de ces options doit être donné à l'enseignant afin de pouvoir suivre la progression de ses étudiants, de prescrire des activités complémentaires en ce qui est fait en classe et de gérer ses groupes. Nous avons participé au développement et à l'évaluation d'une application pour appuyer le suivi des activités et donner du soutien aux apprenants dans un environnement pédagogique disponible gratuitement en ligne pour l'apprentissage des sciences nommé ScienceEnJeu. ScienceEnJeu est un environnement où l'apprenant peut explorer différents mondes d'apprendre le contenu, comme les mathématiques, l'écologie, la physique, la génomique, etc. Notre système utilise une base de données qui se construit en fonction de conditions comme les activités des utilisateurs dans le jeu et offre la possibilité de lier les activités du jeu à des structures de concepts issues du programme du Ministère de l'éducation de loisirs et du sport (MELS). Une interface permet aux parents ou à l'enseignant de visualiser la progression dans l'environnement d'un étudiant et / ou d'un groupe, voir le modèle de l'élève de superposition sur la structure des activités et des structures de concepts. L'enseignant peut chercher une activité liée à des concepts particuliers et la définir comme une tâche pour son groupe d'étudiants selon un calendrier. Un système de soutien personnalisé fondé sur des règles y est aussi intégré. Ces règles sont des stratégies de soutien construites en fonction de différents paramètres du contexte de l'activité, des préférences de style d'apprentissage de l'élève et de l'aide précédente. De par ces règles, différents avatars animés peuvent être affichés avec des messages qui sont écrits pour soutenir la motivation des élèves selon leur personnalité d'apprenant.
Resumo:
Introduction : Peu d’études internationales ont examiné les différences entre les hommes et les femmes dans la prévalence du syndrome métabolique (SM). Objectifs : Comparer les prévalences du syndrome métabolique chez les femmes et les hommes et évaluer le rôle du genre dans les associations entre le SM et les troubles de mobilité (TM). Méthodes : Nous avons utilisé les données repères de l’étude internationale sur la mobilité des personnes âgées de 65-74 ans (n=1995), des villes de Kingston (Ontario), Saint-Hyacinthe (Québec), Tirana (Albanie), Manizales (Colombie), et Natal (Brésil). Parmi les participants, 1728 ont donné un échantillon de sang pour des analyses. Les ratios de prévalence (RP) du SM et des TM ont été dérivés par la régression de Poisson. Résultats : Les prévalences du SM étaient significativement plus élevées chez les femmes dans les villes non canadiennes, cette différence entre sexes n’était pas significative dans les villes canadiennes. Relativement aux femmes de Kingston, les prévalences du SM étaient plus élevées chez les femmes de Tirana (RP= 2,66; 95 % IC = 1,98-3,58) et de Natal (RP= 2,21; 95 % IC = 1,52-3,22) et non significatives chez celles de Manizales et de Saint-Hyacinthe. Chez les hommes, peu de différences significatives étaient observées. Le SM n’était pas associé à la mobilité dans les villes non canadiennes. Conclusion : Nos résultats suggèrent que le genre est un facteur de risque pour le SM. Des recherches sur les relations entre le SM, la mobilité et le genre devraient être entreprises. Mots-clés : Syndrome métabolique, troubles de la mobilité, genre, santé internationale
Resumo:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
L’adhésion au traitement réfère à la mesure selon laquelle un patient respecte la posologie et la fréquence des prises médicamenteuses telles que prescrites par le médecin pour la durée recommandée. En dépit de nombreux traitements efficaces, la problématique de la non-adhésion demeure omniprésente en médecine, notamment dans les populations psychiatriques. Les patients aux prises avec un trouble de l’humeur ou un TDAH peuvent présenter des déficits cognitifs. Un projet de recherche mené auprès de 52 patients est présenté. Les résultats montrent une association entre les difficultés cognitives telles que perçues par les patients et l’adhésion. Des sous-domaines cognitifs comme la capacité d’inhibition, la flexibilité, la mémoire de travail, la planification et l’organisation de même que la capacité d’initier une action sont particulièrement impliqués. La capacité d’initier une tâche est corrélée avec l’adhésion et tend à la prédire. L’utilisation en clinique de méthodes d’évaluation simples et rapides de la cognition et de l’adhésion permettrait d’identifier ces difficultés. Des interventions visant à améliorer l’adhésion pourraient ainsi être offertes de façon plus ciblée. L’adaptation des interventions au profil de chaque individu est une avenue à explorer davantage pour tenter d’améliorer l’efficacité limitée de celles-ci jusqu’à maintenant.
Resumo:
L’attrait des compagnies pharmaceutiques pour des structures cycliques possédant des propriétés biologiques intéressantes par les compagnies pharmaceutiques a orienté les projets décrits dans ce mémoire. La synthèse rapide, efficace, verte et économique de ces structures suscite de plus en plus d’attention dans la littérature en raison des cibles biologiques visées qui deviennent de plus en plus complexes. Ce mémoire se divise en deux projets ciblant la synthèse de deux structures aromatiques importantes dans le monde de la chimie médicinale. Dans un premier temps, l’amélioration de la synthèse de dérivés phénoliques a été réalisée. L’apport de la chimie en flux continu dans le développement de voies synthétiques plus vertes et efficaces sera tout d’abord discuté. Ensuite, une revue des antécédents concernant l’hydroxylation d’halogénure d’aryle sera effectuée. Finalement, le développement d’une nouvelle approche rapide de synthèse des phénols utilisant la chimie en flux continu sera présenté, suivi d’un survol de ses avantages et ses limitations. Dans un deuxième temps, le développement d’une nouvelle méthodologie pour la formation de 3-aminoindazoles a été réalisé. Tout d’abord, un résumé de la littérature sur la synthèse de différents indazoles sera présenté. Ensuite, une présentation de deux méthodes efficaces d’activation de liens sera effectuée, soit l’activation d’amides par l’anhydride triflique et l’activation de liens C–H catalysée par des métaux de transition. Finalement, le développement d’une nouvelle méthodologie pour la synthèse de 3-aminoindazole utilisant ces deux approches sera discuté.