710 resultados para Outils préhistoriques
Resumo:
INTRODUCTION : Les soins de première ligne au Québec vivent depuis quelques années une réorganisation importante. Les GMF, les cliniques réseaux, les CSSS, les réseaux locaux de service, ne sont que quelques exemples des nouveaux modes d’organisation qui voient le jour actuellement. La collaboration interprofessionnelle se trouve au cœur de ces changements. MÉTHODOLOGIE : Il s’agit d’une étude de cas unique, effectuée dans un GMF de deuxième vague. Les données ont été recueillies par des entrevues semi-dirigées auprès du médecin responsable du GMF, des médecins et des infirmières du GMF, et du cadre responsable des infirmières au CSSS. Les entrevues se sont déroulées jusqu’à saturation empirique. Des documents concernant les outils cliniques et les outils de communication ont aussi été consultés. RÉSULTATS : À travers un processus itératif touchant les éléments interactionnels et organisationnels, par l’évolution vers une culture différente, des ajustements mutuels ont pu être réalisés et les pratiques cliniques se sont réellement modifiées au sein du GMF étudié. Les participants ont souligné une amélioration de leurs résultats cliniques. Ils constatent que les patients ont une meilleure accessibilité, mais l’effet sur la charge de travail et sur la capacité de suivre plus de patients est évaluée de façon variable. CONCLUSION : Le modèle conceptuel proposé permet d’observer empiriquement les dimensions qui font ressortir la valeur ajoutée du développement de la collaboration interprofessionnelle au sein des GMF, ainsi que son impact sur les pratiques professionnelles.
Resumo:
Ce mémoire a comme objectif de présenter une revue de la littérature et une analyse comparative des différents modèles existants pour le calcul de la capacité de support d’un plan d’eau aux apports en phosphore. Ce document a aussi pour but d’évaluer les différentes options pour l’utilisation de ce genre d’outil au Québec, ainsi que d’amorcer une réflexion sur les applications possibles de ce concept au niveau local, en lien avec l’aménagement du territoire des bassins versants. L’analyse comparative des modèles théoriques, combinée à la réflexion d’acteurs clés impliqués actuellement dans un processus qui consiste à tester leur utilisation dans les Laurentides au Québec, a permis de mettre en relief l’importance de calibrer les modèles régionalement. De plus, certains avantages semblent résider dans l’utilisation d’un modèle de nature empirique afin d’effectuer les prédictions sur les apports naturels et totaux en phosphore pour les lacs de cette région. Par contre, l’utilisation d’une approche de type « bilan de masse », s’avère tout de même indispensable afin de relativiser l’importance des différents apports anthropiques en phosphore du bassin versant. Dans l’avenir, l’utilisation de tels modèles permettra possiblement de justifier certaines mesures restrictives au développement des bassins versants, qui pourront s’insérer parmi les outils d’urbanisme actuels. Ce sont principalement les municipalités qui détiennent les pouvoirs nécessaires afin d’intégrer les prescriptions découlant de ce genre d’analyse à l’aménagement du territoire des bassins versants. Plusieurs outils d’urbanisme, tels que les plans d’aménagement d’ensemble (PAE) ou bien les règlements de zonage et de lotissement, semblent donner assez de latitude afin de permettre aux municipalités d’intervenir en ce sens. Toutefois, les modèles de capacité de support ne pourront pas être utilisés afin de calculer un nombre précis d’habitations qu’il est possible de construire dans le bassin versant d’un lac.
Resumo:
Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.
Resumo:
Présentation de la barre outils LibX faite dans le cadre de l’Atelier d’échange et d’information organisé par le Groupe de travail sur les NST du Sous-comité des bibliothèques de la CREPUQ. Elle présente les différentes fonctions ainsi que son mode d'implantation.
Resumo:
La dépression est une maladie chronique, récurrente et potentiellement mortelle qui affecte plus de 20 % de la population à travers le monde. Les mécanismes sous-jacents de la dépression demeurent incompris et la pharmacothérapie actuelle, largement basée sur l’hypothèse monoaminergique, fait preuve d’une efficacité sous optimale et d’une latence thérapeutique élevée. Par conséquent, la recherche est amenée à élaborer de nouveaux traitements pharmacologiques. Pour détecter leur action, il est avant tout nécessaire de développer des outils expérimentaux adéquats. Dans cette optique, notre but a été de mesurer l’anhédonie, un symptôme cardinal de la dépression, chez le rat de laboratoire. L’anhédonie a été définie comme une réduction de la récompense et a été mesurée avec le test de consommation de sucrose et la technique d’autostimulation intracérébrale. En vue d’induire l’anhédonie, nous avons effectué une bulbectomie olfactive, une procédure qui entraîne divers changements biochimiques, cellulaires et comportementaux similaires à ceux de l’état dépressif et qui peuvent être renversés par un traitement antidépresseur chronique. Nos résultats montrent que la bulbectomie olfactive produit également l’anhédonie, reflétée par une réduction durable de la consommation de sucrose et par une réduction de l’efficacité de l’amphétamine dans le test d’autostimulation intracérébrale. Ces effets ont été présents jusqu’à trois à quatre semaines suivant la chirurgie. La bulbectomie olfactive a aussi été associée à une augmentation de l’élément de réponse liant l’AMPc dans le striatum, un index moléculaire associé à l’anhédonie. Ces découvertes suggèrent que l’anhédonie peut être produite et étudiée de façon fiable dans le modèle de bulbectomie olfactive et que le circuit de récompense pourrait constituer une cible cohérente pour de nouvelles drogues en vue du traitement de la dépression.
Resumo:
Cette thèse examine le développement du langage des enfants sourds qui ont reçu un implant cochléaire (IC) en bas âge. Une première étude rapporte une revue systématique qui avait pour but d’évaluer les connaissances actuelles concernant le développement du vocabulaire et de la grammaire chez les enfants qui ont reçu un IC avant l’âge de trois ans. Vingt-huit études ont été sélectionnées; une analyse descriptive de même qu’une méta-analyse ont été effectuées séparément pour chaque aspect du langage évalué (vocabulaire et grammaire, aspect réceptif et expressif). Au résultat, en dépit de la variabilité observée dans les études, il appert que l’implant cochléaire influence positivement le développement langagier; toutefois, seule une minorité de participants aux études a atteint des niveaux de langage comparables à ceux d’enfants entendants de même âge chronologique. La majorité des enfants continuent de présenter divers degrés de retard de langage, tant au plan réceptif qu’expressif, et ce, après jusqu’à cinq années de port de l’appareil. Les résultats suggèrent aussi, malgré la variabilité observée dans les études, que les bénéfices langagiers sont influencés par le fait de recevoir l’implant à deux ans plutôt qu’à trois ans. À partir des tendances retrouvées dans la littérature, les habiletés de vocabulaire et de grammaire chez 27 enfants qui ont reçu l’implant cochléaire en bas âge (entre 8 et 28 mois) ont été comparées avec celles d’un groupe d’enfants entendants, en utilisant des outils d’évaluation standardisés. Alors que les résultats de groupe montrent que les enfants qui reçoivent un IC autour de l’âge de deux ans atteignent des niveaux de langage dans les limites de la normale, les résultats individuels d’un sous-groupe formé de enfants les plus âgés font état de quatre profils de développement, soit des niveaux de langage dans les limites de la normale pour l’ensemble des composantes, un retard généralisé à l’ensemble des composantes, des habiletés lexicales dans la norme assorti d’un retard morphosyntaxique et enfin un profil atypique montrant des disparités importantes à travers les composantes du langage. Dans trois des quatre profils, la compréhension des phrases était particulièrement faible. Ces résultats suggèrent que le fait de recevoir un implant cochléaire entre l’âge d’un et deux ans ne garantit pas l’atteinte de niveaux de langage dans les limites de la normale malgré une expérience de port de l’appareil d’une durée appréciable. Une étape antérieure du développement linguistique a été examinée de plus près dans la troisième étude. La taille et la composition du vocabulaire expressif de onze enfants ayant reçu un IC à un âge moyen de 15 mois ont été comparées à celles de l’échantillon d’enfants entendants ayant servi à établir les normes en français québécois pour le questionnaire Mots et énoncés des Inventaires MacArthur-Bates du développement de la communication (IMBDC). Les scores d’âge équivalent selon la taille totale du vocabulaire des enfants avec IC étaient supérieurs à l’âge auditif (correspondant à la durée de port de l’appareil) mais inférieurs à l’âge chronologique. La représentation grammaticale en fonction de la taille du vocabulaire des enfants avec IC suit la tendance observée dans la norme. Ces résultats suggèrent que le profil lexical des enfants avec implant est très similaire à celui des enfants entendants lorsque le nombre total de mots acquis est le même. Les résultats de cette thèse suggèrent que l’implant peut, de manière générale, avoir un effet « normalisant » sur le langage ; toutefois, il semble que l’amélioration de l’accès auditif ne suffise pas pour rattraper à coup sûr le niveau de langage des pairs entendants dans l’ensemble des composantes du langage. Alors que les habiletés lexicales se rapprochent du profil typique, les habiletés de compréhension morphosyntaxique sont fortement atteintes chez une majorité d’enfants, suggérant un profil apparenté à un trouble de langage.
Resumo:
Les nombreux exemples réussis où l’aménagement du territoire intègre des milieux naturels nous ont amenée à nous questionner sur les techniques d’intégration des milieux naturels et les outils de planification disponibles au Québec. La présente recherche porte sur le volet environnemental du projet résidentiel le Faubourg de la Pointe-aux-Prairies à Montréal (FPP) situé dans l’Arrondissement Pointe-aux-Trembles/Rivière-des-Prairies/Montréal est. Un premier objectif relié aux résultats nous a permis d’analyser le taux de succès du quartier FPP à intégrer efficacement des préoccupations environnementales concernant la mise en valeur des milieux naturels. En nous basant sur le taux de conservation, l’intégrité écologique et les témoignages des intervenants de la Ville de Montréal, nous avons déterminé que le plan d’aménagement du projet présente un bilan environnemental mitigé. Un second objectif relié aux processus nous a permis de déterminer si les outils sollicités pendant la conception et la mise en œuvre du projet ont facilité l’intégration des milieux naturels. En nous basant sur les outils d’encadrement et proactifs utilisés tout au long de la mise en oeuvre, nous avons déterminé que ceux-ci sont inadaptés à certaines situations. La non intégration des milieux protégés dans les outils de planification, la destruction des milieux aquatiques avec l’accord du Ministère de l’environnement (MDDEP), le manque de vérification des ententes lors de l’attribution des certificats d’autorisation, l'absence de protection des milieux naturels terrestres et la difficulté d’évaluer les bénéfices économiques de l’intégration de la nature ont été les défis majeurs observés.
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
La présente thèse a pour objectif d’étudier le rôle des facteurs cognitifs (traitement phonologique et visuoattentionnel et mémoire lexicale orthographique) dans l’acquisition des connaissances orthographiques implicites et explicites. Afin d’examiner les liens entre les différents facteurs cognitifs et les connaissances orthographiques, une étude longitudinale a été réalisée à l’aide d’un échantillon de 338 enfants suivis de la maternelle 5 ans à la fin de la deuxième année du primaire. À la fin de la maternelle, les enfants ont été évalués à l’aide d’une épreuve d’orthographe approchée et d’épreuves évaluant les facteurs cognitifs en jeu dans l’apprentissage du langage écrit (traitement phonologique, traitement visuoattentionnel et mémoire à court et à long terme). Les connaissances lexicales orthographiques explicites de ces mêmes enfants ont été évaluées en fin de première et de deuxième années. Le premier article de cette thèse rapporte les données d’une étude réalisée auprès des enfants scolarisés en maternelle 5 ans. Cette étude vise l’établissement d’un lien entre, d’une part, la capacité de traitement phonologique, visuoattentionnel et de mémoire lexicale orthographique et, d’autre part, les connaissances orthographiques implicites des enfants qui n’ont pas encore eu d’enseignement formel de l’écriture. Les résultats indiquent que, contrairement à ce qui a été longtemps avancé, la capacité de traitement phonologique n’est pas le seul facteur cognitif à intervenir, puisque la capacité de mémoire lexicale orthographique à long terme ainsi que la capacité visuoattentionnelle contribuent de façon importante et indépendante à l’acquisition des connaissances orthographiques implicites des enfants de la maternelle 5 ans. La mémoire lexicale orthographique est même le facteur qui apporte la plus forte contribution. La deuxième étude de cette thèse vise à déterminer, parmi les facteurs cognitifs évalués en maternelle, celui ou ceux qui permettent de prédire les connaissances orthographiques explicites ultérieures, c'est-à-dire celles de première et de deuxième années du primaire. Les résultats de cette deuxième étude indiquent que les préalables nécessaires à l’acquisition des connaissances orthographiques lexicales sont les capacités de traitement phonologique ainsi que les capacités de la mémoire à court et à long terme. La troisième étude de cette thèse a pour but de mettre en lumière le rôle prédictif que joue le niveau des connaissances orthographiques des enfants de maternelle quant au niveau ultérieur de leurs connaissances orthographiques en première et deuxième années, en lien avec les capacités cognitives qui sous-tendent l’apprentissage du langage écrit, en particulier le traitement phonologique, le traitement visuoattentionnel et la mémoire lexicale orthographique. Les résultats de cette dernière étude permettent de montrer que, parmi les facteurs évalués en maternelle, le niveau des connaissances orthographiques implicites apporte une contribution unique à l’ensemble du niveau des connaissances orthographiques ultérieures. L’influence des connaissances orthographiques précoces sur l’acquisition ultérieure n’est pas surprenante. En effet, la première étude avait montré que le niveau de ces connaissances est fonction non seulement de la capacité de mémoire orthographique lexicale mais également de la capacité de traitement phonologique et visuottentionnel. Les résultats issus de ces trois études présentent un intérêt non négligeable dans la compréhension de l’acquisition du langage écrit. En effet, ces recherches ont permis de montrer qu’avant même l’apprentissage formel de l’écrit, l’enfant témoigne de connaissances implicites non négligeables sur la langue écrite et que c’est à partir de ces connaissances que s’élaboreront ses connaissances explicites ultérieures. Ces connaissances sont tributaires de multiples facteurs parmi lesquels la capacité de mémoire lexicale orthographique, facteur cognitif dont la contribution n’avait pas été démontrée jusqu’à présent. Les résultats de cette recherche montrent qu’il est possible d’envisager des outils de dépistage précoce qui permettront d’identifier les enfants à risque de présenter des difficultés spécifiques d’apprentissage du langage écrit. Ce dépistage permettrait de mettre en place des interventions mieux ciblées et précoces, ce qui réduirait ainsi l’impact des difficultés sur les apprentissages scolaires.
Resumo:
Le Web se caractérise de bien des façons, un de ses traits dominants étant son caractère hautement évolutif. Bien que relativement jeune, il en est déjà à sa deuxième génération – on parle du Web 2.0 – et certains entrevoient déjà le Web 3.0. Cette évolution n’est pas uniquement technologique mais aussi culturelle, modifiant le rapport des internautes à cet univers numérique et à l’information qui s’y trouve. Les technologies phares du Web 2.0 – blogues, fils RSS, sites Wikis, etc. – offrent aux utilisateurs du Web la possibilité de passer d’un rôle passif d’observateurs à un rôle actif de créateurs. Le Web que l’on côtoie actuellement en est ainsi un plus participatif, dynamique et collaboratif. Les organisations doivent ainsi sérieusement considérer non seulement le potentiel de ces nouveaux environnements pour les aider dans le cadre de leurs activités, mais aussi la nouvelle cyberculture qu’ils engendrent chez leurs employés, clients et partenaires. Les plateformes du Web 2.0 viennent renforcer le potentiel déjà perçu par les organisations des systèmes d’information Web (SIW) à plusieurs niveaux : comme le partage d’information, l’augmentation de la compétitivité ou l’amélioration des relations avec leurs clients. Les milieux documentaires peuvent, au même titre que d’autres types d’organisations, tirer profit des outils de ce Web participatif et de la nouvelle culture collaborative qui en découle. Depuis quelque temps déjà, les bibliothèques se penchent activement sur ces questions et la communauté archivistique emboîte le pas… « vers une Archivistique 2.0 ? » se demanderont certains. Cet article se propose d’examiner le potentiel du Web 2.0 pour les organisations en général ainsi que plus particulièrement pour la communauté archivistique. Nous nous attarderons dans un premier temps à définir ce qu’est le Web 2.0 et à détailler ses technologies et concepts clés. Ces précisions aideront à mieux comprendre par la suite l’apport possible du Web 2.0 en contexte organisationnel. Finalement, des exemples d’utilisation du Web 2.0 par la communauté archivistique viendront conclure cette réflexion sur le Web 2.0, les organisations et l’archivistique.
Resumo:
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.
Resumo:
L'évaluation des écosystèmes est l'un des pivots essentiels pour l'élaboration de moyens adaptés permettant de lutter contre la diminution massive de la biodiversité. Pour la première fois, elle a fait l'objet d'une analyse à l'échelle mondiale dans le cadre de l'Evaluation des écosystèmes en début de millénaire (EM). Le rassemblement de plus d’un millier de chercheurs et de plusieurs organismes internationaux durant quatre années ont permis de dessiner la carte nécessaire à toute action efficace. L'article expose les éléments principaux de l'EM : l'évaluation des écosystèmes en tant que tels, mais surtout des services écosystémiques, dans toutes leurs dimensions, en ce que leur évolution affecte le bien-être humain. Il analyse ensuite les quatre points principaux de l'apport de l'EM, des avantages de l'utilisation croissante des services écologiques à sa non viabilité. Des scénarios, modèles et outils sont proposés pour inverser la courbe négative d'appauvrissement de la biodiversité et des services écosystémiques dans un premier bilan des retombées de l'EM.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.