919 resultados para Assimilation des données
Resumo:
À l’été 2010, le gouvernement canadien a annoncé le remplacement du formulaire long obligatoire par l’Enquête nationale auprès des ménages, un questionnaire facultatif. Ce changement a causé beaucoup de réactions, parce que cela affectera la qualité et la continuité des données recueillies, qui servent à appliquer différents programmes et lois, et qui sont utilisées par de nombreux groupes dans leurs fonctions de recherche et de représentation. Le présent mémoire a pour objectif de comprendre pourquoi le recensement devient parfois le centre d’un conflit politique, quels acteurs sont impliqués, et pour quelles raisons. À l’aide d’une analyse comparative de cas antérieurs dans différents pays, nous identifions trois éléments nécessaires pour que la méthodologie du recensement devienne un enjeu politique. Il s’agit de la présence: (1) d’un aspect identitaire; (2) d’une dimension idéologique qui concerne particulièrement le rôle de l’État et l’action positive; et (3) de programmes ou d’objectifs gouvernementaux qui dépendent directement des données du recensement. Pour évaluer si ces trois facteurs sont également présents au Canada en 2010, nous avons effectué des entrevues avec les groupes qui ont contesté la décision de l’annulation du formulaire long obligatoire. Ces groupes ont contesté la décision devant les tribunaux, et ont évoqué les risques de non-respect du gouvernement envers ses obligations légales, notamment envers la Charte des droits et libertés. L’analyse de ce conflit nous permet aussi d’évaluer les relations entre le gouvernement canadien et la société civile, et le manque de ressources et d’opportunités auquel font face les groupes d’intérêt et les représentants de minorités à la recherche d’équité.
Resumo:
L’estime de soi joue un rôle central lorsqu’il est question de prédire les réactions des individus au feedback. En dépit de son influence indéniable sur les réactions des individus au feedback en contexte d’évaluation de potentiel, peu d’études se sont attardées aux facteurs pouvant en atténuer l’effet dans le cadre d’une telle démarche. Cette thèse vise à combler ce manque à travers deux articles empiriques répondant chacun à plusieurs objectifs de recherche. Dans cette optique, des données ont été amassées auprès de deux échantillons indépendants de candidats (étude 1, N = 111; étude 2, N = 153) ayant réalisé une évaluation de potentiel dans une firme-conseil spécialisée en psychologie industrielle. Le premier article vise à tester deux théories relatives à l’estime de soi s’affrontant lorsqu’il est question de prédire les réactions cognitives au feedback, la théorie de l’auto-valorisation et de l’auto-vérification. Pour mieux comprendre ce phénomène, l’influence de l’estime de soi et de la valence décisionnelle du feedback sur les deux composantes de l’appropriation cognitive du feedback en contexte d’évaluation, l’acceptation et la conscientisation, a été testé. Les résultats soutiennent les postulats de la théorie d’auto-valorisation lorsqu’il est question de prédire l’acceptation du feedback. En contrepartie, les résultats offrent peu de soutien à la théorie de l’auto-vérification dans la prédiction de la conscientisation à l’égard du feedback. Le second article vise à identifier des leviers modulables pour influencer favorablement les réactions des individus ayant une plus faible estime d’eux-mêmes. Pour ce faire, deux variables relatives à l’influence de la source ont été ciblées, la crédibilité perçue et les pratiques de confrontation constructive. Cet article comprend deux études, soit une première ayant pour objectif de valider un instrument mesurant la crédibilité perçue de la source et une seconde examinant les relations entre trois déterminants, soit l’estime de soi du candidat, la crédibilité perçue de la source et les pratiques de confrontation constructive, et deux réactions cognitives au feedback, l’acceptation et la conscientisation. Les analyses de la première étude font ressortir que l’échelle de crédibilité perçue présente des qualités psychométriques satisfaisantes et les résultats corroborent une structure unifactorielle. Les résultats de la seconde étude indiquent que les trois déterminants étudiés sont positivement reliés à l’acceptation et à la conscientisation. Les effets d’interaction significatifs font ressortir des conditions favorisant l’acceptation et la conscientisation chez les individus ayant une plus faible estime d’eux-mêmes. La crédibilité perçue atténue la relation entre l’estime de soi et l’acceptation alors que la confrontation constructive modère les relations entre l’estime de soi et, tant l’acceptation que la conscientisation. Enfin, la crédibilité perçue et la confrontation constructive interagissent dans la prédiction de la conscientisation, faisant ainsi ressortir l’importance d’établir sa crédibilité pour augmenter l’effet positif de la confrontation constructive. Les apports théorique et conceptuel de chacun des articles ainsi que les pistes d’intervention pratiques en découlant sont discutés séparément et repris dans une conclusion globale. Les retombées de cette thèse, tant sur le plan de la recherche que de l'intervention, sont également abordées dans cette dernière section.
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
La mesure de l’activité physique des personnes âgées dans des études populationnelles est un défi. Peu des outils de mesure trouvés dans la littérature sont jugés suffisamment valides ou fiables pour être utilisés dans une étude internationale et longitudinale sur les déterminants de perte de mobilité de personnes âgées. Une étude pilote a été conduite en 2009 pour déterminer la meilleure forme d’évaluation. Les objectifs de ce mémoire sont l’étude des validité, fiabilité et capacité prédictive des données d’un accéléromètre (gold standard), de deux questionnaires choisis (PAQ, IPAQ 7d-recall). Le but est de combiner des éléments des questionnaires dans un seul pour une étude longitudinale projetée au Canada, au Brésil et en Colombie. Le PAQ évalue la fréquence et la durée d’activités de loisirs, l’IPAQ 7d-recall évalue la durée et l’intensité perçue des activités et le temps assis. La collecte de données s’est faite auprès de participants de Saint-Bruno (n=64) et de Santa Cruz (n=60), de 65 à 74 ans. Le PAQ, l’IPAQ-7d-recall et un test de performance (SPPB) ont été complétés puis des accéléromètres remis. À Saint-Bruno, la validité de critère pour l’IPAQ et le PAQ, et la validité de construit pour l’IPAQ sont bonnes. Le refus de l’accéléromètre à Santa Cruz a empêché les analyses de validité. Le PAQ présente une bonne fiabilité mais ajoute peu d’amélioration au pouvoir de prédiction de la dépense énergétique de l’IPAQ. La recherche populationnelle, voulant estimer la dépense énergétique par l’activité physique des personnes âgées, devrait utiliser des instruments mesurant l’intensité perçue (IPAQ) plutôt que les fréquence et durée d’activités concrètes (PAQ).
Resumo:
Dans de nombreux pays, les politiques concernant la répartition des revenus accordent une attention particulière à l’atténuation de la pauvreté. Toutefois, les taux de pauvreté ou de bas revenus – qui sont les indicateurs le plus couramment utilisés dans ce domaine – ne fournissent guère de renseignements de nature à améliorer les politiques visant à réduire la pauvreté. L’objet de ce papier est de contribuer à combler cette lacune analytique en proposant une nouvelle approche axiomatique floue pour mesurer la pauvreté persistante, chronique et transitoire. Notre méthode repose sur la proposition d'une base de règles, le choix des fonctions d’appartenance individuelles et globales et le choix des règles floues définissant l'intersection, l'union et la négation pour la manipulation des sous ensembles flous. Pour une application des concepts proposés nous utilisons des données tunisiennes des années 1985 et 1990.
Resumo:
Plusieurs études ont examiné la sensibilité aux antimicrobiens chez les bactéries d’organismes provenant de produits issus de l’aquaculture ou de leur environnement. Aucune information n’est cependant disponible concernant la résistance aux antimicrobiens dans les bactéries de la flore de poissons ou de fruits de mer vendus au détail au Canada. C’est particulièrement vrai en ce qui a trait aux bactéries des genres Aeromonas et Vibrio, dont certaines espèces sont des agents pathogènes zoonotiques connus. Au cours de cette étude, la sensibilité aux antimicrobiens d’isolats d’Aeromonas spp. et de Vibrio spp. provenant de poissons et de crevettes domestiques et importés a été mesurée à l’aide de techniques de micro dilution en bouillon et/ou de diffusion sur disque. Les classes d’antimicrobiens examinés comprenaient les tétracyclines (TET), les inhibiteurs de la voie des folates (sulfadiméthoxine-triméthoprime, SXT), le florfenicol (FLO), et les quinolones (acide nalidixique / enrofloxacine, NA/ENO). Des valeurs seuils épidémiologiques pour Aeromonas et Vibrio ont été établies en utilisant la méthode d’interprétation normalisée des données de résistance provenant de diffusion sur disque. La recherche de gènes de résistance associés au profil de résistance des isolats a été effectuée en utilisant des PCRs et des puces ADN. Le nombre d’isolats résistants aux divers antimicrobiens parmi les 201 isolats d’Aeromonas et les 185 isolats de Vibrio étaient respectivement les suivants: TET (n=24 et 10), FLO (n=1 et 0), SXT (n=2 et 8), NA (n=7 et 5) et ENO (n= 5 et 0). Diverses associations de gènes tet(A), tet(B), tet(E), floR, sul1, sul2, et intI1 ont été détectées, les gènes tet(E), intI1, sul2 et tet(B) étant les plus communs. Les espèces d’Aeromonas et de Vibrio isolées de poissons au détail et de fruits de mer peuvent héberger une variété de gènes de résistance, bien que peu fréquemment. Le risque que représente ces gènes de résistance reste à évaluer en considérant le potentiel infectieux des bactéries, l’utilisation des ces agents antimicrobiens pour le traitement des maladies en aquaculture et en médecine humaine et leur rôle en tant que réservoir de la résistance antimicrobienne.
Resumo:
Les Inuits sont le plus petit groupe autochtone au Canada. Les femmes inuites présentent des risques beaucoup plus élevés d’issues de grossesse défavorables que leurs homologues non autochtones. Quelques études régionales font état d’une mortalité fœtale et infantile bien plus importante chez les Inuits canadiens par rapport aux populations non autochtones. Des facteurs de risque tant au niveau individuel que communautaire peuvent affecter les issues de grossesse inuites. Les relations entre les caractéristiques communautaires et les issues de grossesse inuites sont peu connues. La compréhension des effets des facteurs de risque au niveau communautaire peut être hautement importante pour le développement de programmes de promotion de la santé maternelle et infantile efficaces, destinés à améliorer les issues de grossesse dans les communautés inuites. Dans une étude de cohorte de naissance reposant sur les codes postaux et basée sur les fichiers jumelés des mortinaissances/naissances vivantes/mortalité infantile, pour toutes les naissances survenues au Québec de 1991 à 2000, nous avons évalué les effets des caractéristiques communautaires sur les issues de grossesse inuites. Lorsque cela est approprié et réalisable, des données sur les issues de grossesse d’un autre groupe autochtone majeur, les Premières Nations, sont aussi présentées. Nous avons tout d'abord évalué les disparités et les tendances temporelles dans les issues de grossesse et la mortalité infantile aux niveaux individuel et communautaire chez les Premières Nations et les Inuits par rapport à d'autres populations au Québec. Puis nous avons étudié les tendances temporelles dans les issues de grossesse pour les Inuits, les Premières Nations et les populations non autochtones dans les régions rurales et du nord du Québec. Les travaux concernant les différences entre milieu rural et urbain dans les issues de grossesse chez les peuples autochtones sont limités et contradictoires, c’est pourquoi nous avons examiné les issues de grossesse dans les groupes dont la langue maternelle des femmes est l’inuktitut, une langue les Premières Nations ou le français (langue majoritairement parlée au Québec), en fonction de la résidence rurale ou urbaine au Québec. Finalement, puisqu'il y avait un manque de données sur la sécurité des soins de maternité menés par des sages-femmes dans les communautés éloignées ou autochtones, nous avons examiné les issues de grossesse en fonction du principal type de fournisseur de soins au cours de l'accouchement dans deux groupes de communautés inuites éloignées. Nous avons trouvé d’importantes et persistantes disparités dans la mortalité fœtale et infantile parmi les Premières Nations et les Inuits comparativement à d'autres populations au Québec en se basant sur des évaluations au niveau individuel ou communautaire. Une hausse déconcertante de certains indicateurs de mortalité pour les naissances de femmes dont la langue maternelle est une langue des Premières Nations et l’inuktitut, et pour les femmes résidant dans des communautés peuplées principalement par des individus des Premières Nations et Inuits a été observée, ce qui contraste avec quelques améliorations pour les naissances de femmes dont la langue maternelle est une langue non autochtone et pour les femmes résidant dans des communautés principalement habitées par des personnes non autochtones en zone rurale ou dans le nord du Québec. La vie dans les régions urbaines n'est pas associée à de meilleures issues de grossesse pour les Inuits et les Premières Nations au Québec, malgré la couverture d'assurance maladie universelle. Les risques de mortalité périnatale étaient quelque peu, mais non significativement plus élevés dans les communautés de la Baie d'Hudson où les soins de maternité sont prodigués par des sages-femmes, en comparaison des communautés de la Baie d'Ungava où les soins de maternité sont dispensés par des médecins. Nos résultats sont peu concluants, bien que les résultats excluant les naissances extrêmement prématurées soient plus rassurants concernant la sécurité des soins de maternité dirigés par des sages-femmes dans les communautés autochtones éloignées. Nos résultats indiquent fortement le besoin d’améliorer les conditions socio-économiques, les soins périnataux et infantiles pour les Inuits et les peuples des Premières Nations, et ce quel que soit l’endroit où ils vivent (en zone éloignée au Nord, en milieu rural ou urbain). De nouvelles données de surveillance de routine sont nécessaires pour évaluer la sécurité et améliorer la qualité des soins de maternité fournis par les sages-femmes au Nunavik.
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.
Resumo:
L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention de la Maîtrise (M.Sc.) en criminologie
Resumo:
Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
Le trouble du déficit de l’attention avec ou sans hyperactivité (TDAH) est de plus en plus reconnu chez l'adulte. Les psychostimulants représentent la première ligne de traitement, mais ceux-ci ne sont parfois pas tolérés, peuvent être contrindiqués ou ne pas être efficaces. Les médicaments non stimulants constituent une alternative mais ont été insuffisamment explorés. Cette thèse présente un essai clinique randomisé contrôlé de 30 sujets souffrant de TDAH qui ont reçu soit la duloxétine 60 mg par jour ou le placebo pendant une période de 6 semaines. Le Conners’ Adult ADHD Rating Scale (CAARS) et le Clinical Global Impression scale (CGI) ont été utilisés pour mesurer la sévérité des symptômes et l'amélioration clinique. Le Hamilton Anxiety Rating Scale (HARS) et le Hamilton Depression Rating Scale (HDRS) ont été choisis pour vérifier l'impact sur la symptomatologie anxio-dépressive. Les résultats démontrent que les sujets ayant reçu la duloxétine avait un score au CGI-Severity (CGI-S) inférieur au groupe contrôle à 6 semaines de traitement et une amélioration plus importante au CGI-Improvement (CGI-I). Ce groupe démontre également des diminutions supérieures des scores à plusieurs sous-échelles du CAARS. Aucun effet n'a été observé sur le HARS et le HDRS. Le taux de retrait du bras duloxetine remet par contre en question la dose initiale choisie dans ce protocole. La duloxétine semble donc une option prometteuse dans le traitement du TDAH chez l'adulte et la réplication des données cliniques serait la prochaine étape pour confirmer ces résultats.
Resumo:
Le succès de carrière a fait l’objet d’une multitude d’études et deux formes de succès ont été identifiées; le succès subjectif et le succès objectif de carrière. Dans le cadre de notre recherche, nous nous sommes intéressés au succès subjectif de carrière compte tenu de son association confirmée avec le bien-être psychologique, la qualité de la vie au travail (Nabi, 2003; Peluchette, 1993), la motivation intrinsèque, la confiance en soi (Abele et Spurk, 2009b) et l’engagement envers l’organisation (Hennequin, 2009a). En outre, selon diverses études (Arthur, Khapova et Wilderom, 2005; El Akremi, Guerrero et Neveu, 2006), le succès de carrière a tendance à être examiné plus sur la base des critères objectifs (salaire et promotions) que des critères subjectifs (la perception de l’individu). Par ailleurs, il y a eu une méta-analyse, élaborée par Ng, Eby, Sorensen et Feldman (2005) qui a examiné les déterminants du succès de carrière, à la lumière de deux perspectives théoriques développées par Turner (1960); soit la perspective de la mobilité par concours « contest mobility » et la perspective de la mobilité sponsorisée « sponsored mobility ». Ces auteurs ont révélé que les recherches sur le succès de carrière ont une portée limitée; « there is only a limited range of variables being examined as predictor of career success » (p. 396); d’où la nécessité d’examiner d’autres déterminants de succès de carrière, en les associant aux deux perspectives théoriques développées par Turner (1960). La présente recherche s’inscrit également dans la lignée des études qui ont pour but d’analyser les déterminants du succès de carrière. Toutefois, elle traite des liens entre le succès subjectif de carrière, les possibilités de mobilité externe et la congruence personne-organisation. Sur la base des recommandations de Ng, Eby, Sorensen et Feldman (2005), nous avons associé la congruence personne-organisation au modèle de la mobilité sponsorisé et les possibilités de mobilité externe au modèle de la mobilité par concours. Notre étude est de type explicatif, compte tenu du fait qu’elle tente de vérifier les liens entre le succès subjectif de carrière, les possibilités de mobilité externe et la congruence personne-organisation. À cet effet, nous avons eu recours à des données qui ont été colligées auprès de professionnels des ressources humaines, membre de l’ordre des conseillers en ressources humaines et en relations industrielles (Saba et Dufour, 2005) afin de pouvoir tester empiriquement les liens que nous anticipions entre notre variable dépendante (succès subjectif de carrière) et nos variables indépendantes (congruence personne-organisation et possibilités de mobilité externe) en tenant compte à la fois de notre variable médiatrice, à savoir le sponsorat organisationnel qui intervient dans le lien entre la congruence personne-organisation, et de nos variables de contrôle, qui sont l’âge, le genre, le statut marital, la scolarité, l'ancienneté dans l'organisation et l'ancienneté sur le marché du travail. Par ailleurs, nous avons adopté une méthode quantitative et nous avons procédé à des analyses statistiques, afin de faire sortir les caractéristiques de la distribution des variables; à des analyses bivariées, afin d’analyser les relations (statistiques) entre notre variable dépendante (succès subjectif de carrière) et chacune de nos variables indépendantes (la congruence personne-organisation et les possibilités de mobilité externe) et à une régression multiple, afin de déterminer si des corrélations existent entre les différentes variables à l’étude, nous avons également effectué un test de médiation afin de vérifier le rôle médiateur du sponsorat organisationnel dans le lien entre la congruence personne-organisation et le succès subjectif de carrière. De façon générale, nos hypothèses de recherche on été confirmées. Les possibilités de mobilité externe et la congruence personne-organisation sont liées positivement au succès subjectif de carrière. De plus, nous avons identifié une médiation partielle du sponsorat organisationnel dans le lien entre la congruence personne-organisation et le succès subjectif de carrière.