416 resultados para Commande optimale
Resumo:
Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.
Resumo:
Ce texte se veut un document de présentation visant familiariser les différents auteurs ayant participé à l’étude « Étude de faisabilité : Modèle de fournisseur de services de dépôt électronique », commandée par le Bureau du Registraire de la Cour suprême du Canada en septembre 2002 avec la notion de dépôt électronique telle qu’envisagée par le gouvernement canadien. Il fait l’état d’un modèle conceptuel de marché de fournisseur de services de dépôt électronique (FSDE) normatif géré par le secteur privé afin de fournir des services de dépôt électronique sûrs et peu coûteux aux praticiens du droit au Canada. Ce modèle envisagé par les responsables du projet pourra, grâce à l’utilisation de la norme juridique XML Court Filing 1.0, fournir une plate-forme commune de dépôt électronique et de gestion des documents offrant une interface avec les systèmes de gestion des instances et de gestion des documents de chaque tribunal. Ces travaux ne constituent pas pour autant un endossement du modèle FSDE, mais plutôt un engagement d’étudier de façon complète et systématique une solution de rechange au dépôt électronique afin d’améliorer notre connaissance collective dans ce domaine.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Travail d'intégration présenté à Isabelle Gagnon dans le cadre du cours PHT-6113.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie
Resumo:
Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.
Resumo:
L’allaitement maternel est reconnu comme la façon optimale de nourrir les nourrissons et les jeunes enfants. Néanmoins, le Québec présente des taux d’allaitement parmi les plus faibles au Canada. Dans un tel contexte, le gouvernement provincial plaça l’allaitement comme l’une de ses priorités de santé publique et il publia, en 2001, la politique L’allaitement maternel au Québec : Lignes directrices (LD). Cette étude a pour but de comprendre les processus d’émergence, d’élaboration et de mise en œuvre des LD. Il s’agit d’une étude de cas unique qualitative. Les données ont été recueillies par des entrevues et un groupe de discussion auprès de personnes engagées dans ce domaine et par la recension documentaire. Une analyse thématique déductive-inductive a été réalisée en utilisant la théorie institutionnelle. Les LD ont émergé à partir d’un mouvement professionnel qui a collaboré avec le ministère de la Santé et des Services sociaux pendant la phase d’élaboration et le début de la phase d’implantation de la politique. Au fil du temps, la prise de décisions a été centralisée, les mécanismes de concertation sont devenus désuets et les relations entre les acteurs concernés sont devenues moins coopératives. L’inconfort et le mécontentement avec cette nouvelle façon de gérer le dossier allaitement ont favorisé l’émergence d’un nouveau mouvement professionnel. L’étude conclut cependant que les acteurs concernés par l’allaitement au Québec visent l’atteinte du même but et que la collaboration est possible même dans un domaine très institutionnalisé comme celui de la santé, la preuve étant la formulation consensuelle des LD.
Resumo:
Les interactions entre les squelettes sucre-phosphate de nucléotides jouent un rôle important dans la stabilisation des structures tertiaires de larges molécules d’ARN. Elles sont régies par des règles particulières qui gouverne leur formation mais qui jusque là demeure quasiment inconnues. Un élément structural d’ARN pour lequel les interactions sucre-phosphate sont importantes est le motif d’empaquetage de deux doubles hélices d’ARN le long du sillon mineur. Ce motif se trouve à divers endroits dans la structure du ribosome. Il consiste en deux doubles hélices interagissant de manière à ce que le squelette sucre-phosphate de l’une se niche dans le sillon mineur de l’autre et vice versa. La surface de contact entre les deux hélices est majoritairement formée par les riboses et implique au total douze nucléotides. La présente thèse a pour but d’analyser la structure interne de ce motif et sa dépendance de stabilité résultant de l’association optimale ou non des hélices, selon leurs séquences nucléotidiques. Il est démontré dans cette thèse qu’un positionnement approprié des riboses leur permet de former des contacts inter-hélices, par l’entremise d’un choix particulier de l’identité des pairs de bases impliquées. Pour différentes pairs de bases participant à ce contact inter-hélices, l’identité optimale peut être du type Watson-Crick, GC/CG, or certaines pairs de bases non Watson-Crick. Le choix adéquat de paires de bases fournit une interaction inter-hélice stable. Dans quelques cas du motif, l’identité de certaines paires de bases ne correspond pas à la structure la plus stable, ce qui pourrait refléter le fait que ces motifs devraient avoir une liberté de formation et de déformation lors du fonctionnement du ribosome.
Resumo:
Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.
Resumo:
Rapport de projet de maîtrise en génie clinique au CHU Sainte-Justine
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de tous les documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.