205 resultados para Catalogues en ligne
Resumo:
Réalisé en milieu collégial (cégep)
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
L’imagerie musicale involontaire (IMIN) est un phénomène mental extrêmement commun. Il peut être défini en tant que type d’imagerie mentale musicale qui devient consciente sans effort ou intentionnalité et qui n’est pas pathologique. La forme la plus connue d’IMIN est le « ver d’oreille », qui se présente généralement comme un court extrait musical tournant en boucle en tête et dont on se débarrasse difficilement. L’objectif principal de la présente thèse est d’investiguer les mécanismes cognitifs sous-tendant le phénomène puisque, malgré l’intérêt répandu dans les médias populaires, son étude expérimentale est récente et un modèle intégré n’a pas encore été proposé. Dans la première étude, l’induction expérimentale a été tentée et les caractéristiques des images mentales d’épisodes d’IMIN ont été investiguées. Dans le laboratoire, des chansons accrocheuses (versus des proverbes) ont été présentées répétitivement aux participants qui devaient ensuite les chanter le plus fidèlement possible. Ils ont par après quitté le laboratoire, une enregistreuse numérique en mains, avec la consigne d’enregistrer une reproduction vocale la plus fidèle possible de ce qu’ils avaient en tête lors de tous leurs épisodes d’IMIN sur une période de quatre jours, ainsi que de décrire leur timbre. L’expérience a été répétée deux semaines plus tard. Douze des dix-huit participants du groupe expérimental ont rapporté des pièces induites comme épisodes d’IMIN, ce qui confirme l’efficacité de la procédure d’induction. La tonalité et le tempo des productions ont ensuite été analysés et comparés à ceux des pièces originales. Similairement pour les épisodes d’IMIN induits et les autres, les tempi produits et, dans une moindre mesure pour les non-musiciens, les tonalités étaient proches des originaux. Le timbre décrit était généralement une version simplifiée de l’original (un instrument et/ou une voix). Trois études se sont ensuite intéressées au lien entre le potentiel d’IMIN et la mémorabilité. Dans une étude préliminaire, 150 chansons du palmarès francophone radiophonique ont été évaluées en ligne par 164 participants, sur leur niveau de familiarité, d’appréciation et de potentiel d’IMIN. Les pièces ont ensuite été divisées en groupes de stimuli à faible et à fort potentiel d’IMIN, qui ont été utilisés dans une tâche typique de rappel libre/reconnaissance, premièrement avec des francophones (pour qui les pièces étaient familières) et ensuite avec des non-francophones (pour qui les pièces étaient non-familières). Globalement, les pièces à fort potentiel d’IMIN étaient mieux rappelées et reconnues que les pièces à faible potentiel. Une dernière étude a investigué l’impact de la variabilité inter-stimulus du timbre sur les résultats précédents, en demandant à une chanteuse d’enregistrer les lignes vocales des pièces et en répétant l’expérience avec ces nouveaux stimuli. La différence précédemment observée entre les stimuli à fort et à faible potentiel d’IMIN dans la tâche de reconnaissance a ainsi disparu, ce qui suggère que le timbre est une caractéristique importante pour le potentiel d’IMIN. En guise de conclusion, nous suggérons que les phénomènes mentaux et les mécanismes cognitifs jouant un rôle dans les autres types de souvenirs involontaires peuvent aussi s’appliquer à l’IMIN. Dépendamment du contexte, la récupération mnésique des pièces peut résulter de la répétition en mémoire à court terme, de l’amorçage à court et long terme ou de l’indiçage provenant de stimuli dans l’environnement ou les pensées. Une des plus importantes différences observables entre l’IMIN et les autres souvenirs involontaires est la répétition. Nous proposons que la nature même de la musique, qui est définie par la répétition à un niveau micro- et macro-structurel en est responsable.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Cette recherche explore comment l’infrastructure et les utilisations d’eBird, l’un des plus grands projets de science citoyenne dans le monde, se développent et évoluent dans le temps et l’espace. Nous nous concentrerons sur le travail d’eBird avec deux de ses partenaires latino-américains, le Mexique et le Pérou, chacun avec un portail Web géré par des organisations locales. eBird, qui est maintenant un grand réseau mondial de partenariats, donne occasion aux citoyens du monde entier la possibilité de contribuer à la science et à la conservation d’oiseaux à partir de ses observations téléchargées en ligne. Ces observations sont gérées et gardées dans une base de données qui est unifiée, globale et accessible pour tous ceux qui s’intéressent au sujet des oiseaux et sa conservation. De même, les utilisateurs profitent des fonctionnalités de la plateforme pour organiser et visualiser leurs données et celles d’autres. L’étude est basée sur une méthodologie qualitative à partir de l’observation des plateformes Web et des entrevues semi-structurées avec les membres du Laboratoire d’ornithologie de Cornell, l’équipe eBird et les membres des organisations partenaires locales responsables d’eBird Pérou et eBird Mexique. Nous analysons eBird comme une infrastructure qui prend en considération les aspects sociaux et techniques dans son ensemble, comme un tout. Nous explorons aussi à la variété de différents types d’utilisation de la plateforme et de ses données par ses divers utilisateurs. Trois grandes thématiques ressortent : l’importance de la collaboration comme une philosophie qui sous-tend le développement d’eBird, l’élargissement des relations et connexions d’eBird à travers ses partenariats, ainsi que l’augmentation de la participation et le volume des données. Finalement, au fil du temps on a vu une évolution des données et de ses différentes utilisations, et ce qu’eBird représente comme infrastructure.
Resumo:
Rapport de stage présenté en vue de l’obtention du grade Maître ès sciences (M.Sc.) en criminologie option stage en intervention clinique.
Resumo:
Guide et ses annexes à destination des utilisateurs des cartes relatives à la recherche "Cartographie des anciens cours d’eau, lignes de creux et des bassins versants de l'île de Montréal". Aide à la compréhension du contexte, des définitions, de la méthodologie et des hypothèses relatives à la réalisation des documents cartographiques suivants: ■ Carte des anciens cours d'eau de l'île de Montréal, Mahaut V., 2016 ■ Carte des creux et crêtes et des voiries de l'île de Montréal, 1:20.000, Mahaut V., 2016 [http://hdl.handle.net/1866/16313] ■ Carte des creux et crêtes et de l'altimétrie de l'île de Montréal, 1:20.000, Mahaut V.,2016 [http://hdl.handle.net/1866/16312] ■ Recensement cartographique des anciens cours d’eau de l’île de Montréal et tracé des creux et des crêtes, Carte index 1:50.000, Cartes A4, B3, B4, C3, C4, D1, D2, D3, D4, E1, E2, E3, E4, 1:10.000, Mahaut V., 2016 [http://hdl.handle.net/1866/16311]
Resumo:
Ce dossier s’intéresse à la manière dont s’entrelacent littérature et numérique dans la littérature contemporaine. Puisque le numérique teinte l’ensemble des pratiques humaines, la littérature fait partie des lieux qu’elle investit. Ainsi, la question autour de laquelle s’articulent les textes de ce dossier est donc la suivante : comment pratiques littéraires et pratiques numériques peuvent-elles dialoguer aujourd’hui, et que peut-on dire des interactions qui découlent de ces échanges ? Il ne s’agit pas d’affirmer que toute la production littéraire contemporaine développe un discours sur le numérique, mais bien que les nouvelles possibilités de lecture et d’analyse qui nous sont offertes méritent d’être analysées et mises à l’épreuve.
Resumo:
Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.
Resumo:
Souvent conçues comme le vecteur de changements majeurs, les pratiques numériques constituent une occasion de mieux comprendre le fait littéraire en faisant apparaître de manière plus explicite que jamais des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. En particulier, et c’est l’objet de cet article, le fait numérique donne l’occasion de réinvestir une problématique qui parcourt l’ensemble de la réflexion sur le statut de la littérature depuis Platon et Aristote : celle du rapport entre littérature et réalité, dont Sartre et Derrida avaient déjà œuvré à déconstruire l’opposition au XXe siècle. Selon nous, le numérique souligne l’absence de séparation entre symbolique et non-symbolique, nous empêchant de penser une rupture entre imaginaire et réel. Pour rendre compte de cette structure, nous nous appuierons sur le concept d’éditorialisation, qui vient désigner l’ensemble des dispositifs permettant la production de contenus dans l’espace numérique en tenant compte de la fusion entre espace numérique et espace non numérique. À travers des exemples littéraires – Traque Traces de Cécile Portier et Laisse venir d’Anne Savelli et Pierre Ménard – nous démontrerons comment la littérature participe aujourd’hui à l’éditorialisation du monde, enterrant ainsi définitivement le dualisme imaginaire-réel pour lui préférer une structure anamorphique.
Resumo:
Le but de cette étude était de mesurer le niveau d’acceptation des rôles de l’infirmière praticienne de première ligne (IPPL) par les usagers de CLSC, selon les caractéristiques socio-démographiques de ceux-ci. La collecte de données pour cette recherche synthétique comparative s’est effectuée dans cinq CLSC de la région montréalaise par des questionnaires auto-administrés. L’échantillon accidentel est composé de 316 personnes de 18 ans et plus, se présentant au CLSC pour un problème de santé. Ces personnes étaient sollicitées par des affiches ou par des suggestions de la réceptionniste dans les salles d’attente. Les résultats révèlent que près de 40% de l’échantillon acceptent tous les rôles de l’IPPL. Des analyses de régression logistique montrent que les personnes ayant un revenu annuel élevé (supérieur à 40000$) sont plus susceptibles d’accepter tous les rôles de l’IPPL. Ces résultats vont permettre aux décideurs de prendre les mesures nécessaires pour implanter ce nouveau groupe professionnel ; ils peuvent également aider les IPPL à concevoir des stratégies pour faire une promotion efficiente de leur rôle en pratique avancée auprès de la population.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
La prise en charge efficace des maladies chroniques nécessite une implication accrue des patients dans la gestion de leurs soins et de leur état de santé. Le lien existant entre les caractéristiques organisationnelles de la 1ère ligne et la capacité des patients pour l’auto-soins étant peu documenté, l’objectif de ce mémoire est de mieux comprendre comment l’organisation de la 1ère ligne médicale peut influencer la capacité des personnes pour l’auto-soins d’une maladie chronique. Pour atteindre cet objectif, 776 patients atteints de maladie chronique ont été recrutés dans 33 cliniques ayant participé à une enquête organisationnelle. Ces patients ont répondu à un questionnaire sur l’auto-efficacité pour la gestion d’une maladie chronique à 0, 6 et 12 mois. Des analyses par régression hiérarchique à 3 niveaux ont permis de mesurer les liens entre les variables organisationnelles sélectionnées et la capacité perçue des patients pour l’auto-soins de leur maladie. Les résultats montrent que les caractéristiques organisationnelles ont peu d’effet sur l’auto-efficacité pour l’auto-soins en comparaison aux facteurs individuels, et que le soutien à l’auto-soins est peu présent dans les cliniques participantes sans égard à leurs attributs organisationnels. Bien qu’aucune des caractéristiques sélectionnées n’apparaisse significativement associée à l’auto-soins dans le modèle final, des associations significatives ont été observées en analyses bivariées. Ces résultats suggèrent que toutes les organisations de 1ère ligne doivent fournir un effort explicite pour mieux intégrer l’auto-soins dans les services de santé usuels et que la présence d’éléments organisationnels facilitateurs ne se traduit pas systématiquement par une provision accrue de soutien à l’auto-soins.
Resumo:
Introduction : La douleur chronique non cancéreuse (DCNC) est prévalente, notamment en première ligne où l’on traite la plupart des maladies chroniques. Cette étude de cohorte vise à décrire l’usage des analgésiques, la prévalence et le traitement des effets secondaires des analgésiques utilisés, la satisfaction ainsi que les croyances et attitudes face à la douleur et son traitement chez des patients souffrant de DCNC et suivis en première ligne. Méthodologie : Des patients souffrant de DCNC (douleur qui dure depuis six mois et plus), ressentie au minimum deux fois par semaine avec une intensité d’au moins 4 sur une échelle de 0 à 10 (10 = la pire douleur possible) et qui possèdent une ordonnance active d’un médecin de famille pour un médicament contre la douleur, ont été recrutés à travers le Québec. Ils ont complété une entrevue téléphonique et un questionnaire auto-administré afin de documenter les caractéristiques de leur douleur, son impact psychosocial et émotionnel ainsi que leur satisfaction et croyances face à la douleur et son traitement. L’information concernant la pharmacothérapie reçue a été collectée en utilisant les banques de données administratives de la Régie d’assurance maladie du Québec et les dossierspatients des pharmacies communautaires. Résultats : Les 486 patients qui ont participé à l’étude avaient une moyenne d’âge de 58,4 ans. Ils ont rapporté une douleur qui dure en moyenne depuis 11,7 ans évaluée à 6,5 sur une échelle de 0 à 10. Sur la période d’une année, 52,9% des patients ont reçu des analgésiques prescrits par deux ou trois médecins de famille. Les analgésiques les plus dispensés étaient les anti-inflammatoires non stéroïdiens (72,2%) et les opioïdes (65,6%). Bien que 90% des patients ont rapporté des effets gastro-intestinaux, les proportions de ceux n’ayant pas reçu de médicaments pour soulager la constipation ou les nausées et/ou vomissements étaient respectivement 36,4% et 54,4%. Le niveau de satisfaction était faible, notamment face à l’information reçue concernant la douleur et son traitement. La peur des effets néfastes des analgésiques constitue la barrière face à l’optimisation de la pharmacothérapie de la douleur la plus souvent rapportée par les patients. Conclusion : En première ligne, la prise en charge de la douleur chronique non cancéreuse modérée à sévère paraît sous-optimale. Elle implique différents médecins de famille suggérant un manque de cohérence et de continuité. Les effets secondaires aux analgésiques sont prévalents et souvent non traités; la satisfaction est faible et les patients paraissent réticents à prendre les médicaments contre la douleur. Ces résultats indiquent clairement la nécessité d’optimiser la pharmacothérapie de ces patients.