1000 resultados para La médecine dentaire fondée sur des données probantes


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des Sciences Infirmières en vue de l’obtention du grade de Maître ès Sciences (M. Sc.) en sciences infirmière option administration des sciences infirmières

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Certaines applications thérapeutiques de la médecine génomique sont susceptibles de mener à une amélioration considérable de la santé des populations des pays en développement dans les années à venir. La mise en place de politiques d’innovation efficaces demeure toutefois cruciale afin d’assurer la réalisation des promesses de la révolution génomique. Dans le domaine biomédical, la commercialisation des fruits de la recherche s’est établie comme le paradigme dominant au sein du système d’innovation. Plusieurs études récentes ont cependant démontré que l’emphase mise sur la commercialisation et la protection de la propriété intellectuelle a donné lieu à des résultats décevants. Certains acteurs du système d’innovation avancent donc désormais qu’il est nécessaire d’aller au-delà de la commercialisation de la recherche et de mettre en place des politiques basées sur le paradigme de la valorisation de la recherche, qui favorise l’atteinte d’objectifs sociaux ainsi qu’économiques. L’objectif de notre mémoire est de documenter l’impact des politiques d’innovation de projets internationaux de science ouverte en génomique médicale sur le développement des capacités en recherche et développement en génomique et l’accès à la médecine génomique dans les pays en développement. Nous avons ainsi réalisé une étude de cas impliquant quatre projets internationaux de science ouverte en génomique médicale. Les résultats de notre étude de cas ont démontré que ces projets jouent un rôle important dans le développement des capacités en recherche et en développement en génomique dans les pays en développement, mais qu’ils y jouent un rôle beaucoup plus limité sur le plan de l’accès aux applications de la médecine génomique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La question de la protection des données à caractère personnel posée dans le cadre des activités d’assistance et de soutien des missions civiles de gestion de crise ne semble guère avoir suscité l’intérêt des instances en charge de leur gestion et ce en dépit de son importance majeure au regard des tâches exécutées quotidiennement par les agents de ces missions dans le domaine de la coopération policière et judiciaire en matière pénale. S’appuyant sur une expérience de terrain, l’auteur s’efforcera, dans ces lignes, de démontrer la nécessité d’entamer une réflexion de fond sur ce sujet afin, le cas échéant, de prendre les initiatives utiles destinées à porter remède aux difficultés qui, en ce domaine, pourraient apparaître.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La répartition des taux de prévalence des infections transmissibles sexuellement et par le sang (ITSS) et du VIH/SIDA au Canada présente de grandes inégalités entre les différents groupes socioculturels. Les Autochtones font partie des populations qui en payent le plus lourd tribut. Par rapport à cette situation, le plan directeur 2007-2017 de la commission de la santé et des services sociaux des Premières Nations du Québec et du Labrador (CSSSPNQL) identifie clairement le VIH/SIDA comme une problématique prioritaire de santé. La stratégie autochtone sur le VIH/SIDA estime que pour être efficaces, les interventions visant la prévention du VIH/SIDA doivent cibler divers groupes, au nombre desquels la jeunesse autochtone est une cible particulière. En ce sens, la familiarité des jeunes générations avec la technologie positionne l’utilisation des technologies de l’information et de la communication (TIC) comme une avenue fortement prometteuse dans le domaine de la prévention du VIH/SIDA chez les adolescents et jeunes adultes. Nous avons réalisé une synthèse des connaissances dans ce domaine novateur suivant une méthodologie suggérée par la Collaboration Cochrane dans le but de documenter l’efficacité et les facteurs d’adoption des interventions utilisant les TIC pour la prévention des ITSS/VIH/SIDA et la promotion de la santé sexuelle et reproductive auprès des adolescents et jeunes adultes. Les résultats de cette revue systématique ont permis d’élaborer et de mener, en partenariat avec la CSSSPNQL, un projet de recherche visant à évaluer la faisabilité de telles interventions au sein des adolescents et jeunes adultes de communautés des Premières Nations (PN) du Québec. En complément à cette étude de faisabilité et dans le but de formuler des recommandations en vue de la conception d’interventions utilisant les TIC et fondées autant sur les données probantes que sur les réalités des jeunes des PN, nous avons entrepris une dernière étude visant à identifier les facteurs sous-jacents du port du condom chez les 13-18 ans de communautés des Premières Nations du Québec. Nous avons discuté, dans la présente thèse, les résultats de ces études ainsi que divers enjeux du partenariat de recherche avec les parties prenantes des PN ayant participé à notre projet. Les implications pratiques de nos résultats, en matière de recherche et d’intervention, sont à discuter avec notre principale partenaire, la CSSSPNQL, afin d’en optimiser les retombées pour les populations des PN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La station de mesure Molit entre dans la gamme de produits MAREL. Cette gamme est constituée d’outils développés pour l’observation en continu de paramètres hydrologiques. La bouée Molit a été déployée en baie de Vilaine du 2 mars 2011 au 22 septembre 2011. Cette station est équipée : - d’une sonde multipramètre MP6 qui mesure les paramètres : température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont réalisées à 2 niveaux (surface et fond) avec une fréquence de une mesure horaire. - de deux analyseurs de nutriments (Chemini) mesurant les concentrations en nitrate et silicate avec une fréquence de une mesure toutes les 12 heures. Les données acquises par la bouée MOLIT sont transmises par liaison GSM numérique à la station de gestion Marel vilaine où elles sont validées. Un outil de contrôle qualité (OCQ) a été développé pour valider les données : elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL - historique des opérations de maintenance pendant la période de déploiement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un outil de contrôle qualité (OCQ) a été développé pour valider les données : elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 et T2 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL, - historique des opérations de maintenance pendant la période de déploiement, - constat de vérification des sondes multiparamètres après campagne.té et la fluorescence, en surface et fond)..

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La station de mesure Molit entre dans la gamme des produits MAREL. Cette gamme est constituée d’outils développés pour l’observation en continu de paramètres hydrologiques. La bouée Molit a été déployée en baie de Vilaine du 22 février 2013 au 25 octobre 2013. Cette station est équipée d’une sonde multiparamètre MP6 qui mesure les paramètres : température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont réalisées à 2 niveaux (surface et fond) avec une fréquence d’une mesure horaire. Les données acquises par la bouée MOLIT sont transmises par liaison GSM numérique à la station de gestion Marel Vilaine où elles sont validées. Les données peuvent être consultées sur le site web : http://www.ifremer.fr/co-en/. Un outil de contrôle qualité (OCQ) a été développé pour valider les données. Elles peuvent être qualifiées selon 3 états : bon, douteux ou faux. Ils existent différents stades de validation : - stade T0.5 : pré-qualification automatique sur la base de seuils fixés avec 3 états : bon, douteux et faux. - Stade T1 : contrôle visuel et modification manuelle de l’état de qualité - Stade T2 : données corrigées (après étalonnage). Ce document synthétise les informations permettant de qualifier les données au stade T1 et T2 : - contrôles in-situ de la sonde multiparamètre réalisés par le laboratoire LER/MPL, - historique des opérations de maintenance pendant la période de déploiement, - constat de vérification des sondes multiparamètres après campagne. En 2013, nous avons récupéré un seul constat de vérification après campagne (celui concernant la période du 3 juin au 8 août).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.