66 resultados para Complexe variabelen.
Resumo:
L’extrémité des chromosomes linéaires est une structure nucléoprotéique très conservée chez les organismes eucaryotes. Elle est constituée du télomère et des régions sous-télomériques répétées (STR) qui sont placées en amont du télomère. Chez la levure bourgeonnante, on trouve deux types de télomère, les télomères XY’ et les télomères X, qui se distinguent par la nature des STR positionnées en amont des répétitions télomériques. Le télomère et les STR sont liés par pas moins de dix protéines qui vont participer au maintien et à la régulation de l’extrémité chromosomique nécessaires à la stabilité du génome. Le télomère protège ainsi le chromosome de dégradations ou encore de fusions avec d’autres chromosomes. Le maintien de la taille du télomère est assuré par la télomérase, une transcriptase inverse, qui permet l’ajout de répétitions pour pallier leur perte lors de la phase de réplication durant le cycle cellulaire. Lorsque la télomérase est absente, deux types particuliers de cellules, les survivants de type I et les survivants de type II, peuvent maintenir leurs télomères grâce aux mécanismes de recombinaison homologue. Chez l’humain, les répétitions télomériques sont également liées par un certain nombre de protéines nécessaires au maintien de la stabilité de l’extrémité chromosomique. L’implication des télomères dans les processus de cancérisation, de vieillissement, mais également dans des maladies congénitales fait de cette structure un pivot dans le domaine de la recherche fondamentale. Dans 10 % des cas de cancers, l’allongement n’est pas dû à une réactivation de la télomérase comme c’est en général le cas, mais est inhérent à des processus de recombinaison homologue, comme chez la levure. Les homologies de séquences, de protéines, mais aussi de mécanismes de régulation des télomères avec les cellules humaines, font de S. cerevisiae un excellent modèle d’étude. Cette thèse se divise en trois chapitres. Les deux premiers traitent de l’interaction du complexe yKu avec les télomères de type XY’ dans le chapitre 1 puis de son interaction avec les télomères de type X dans le chapitre 2. Le chapitre 3 traite du comportement d’un type de survivant chez S. cerevisiae. Le chapitre 1 porte donc sur l’analyse des sites de liaison aux télomères XY’ du complexe yKu par la technique de ChEC in vivo. yKu intervient dans de nombreux processus de régulation des télomères, mais aussi dans un mécanisme de réparation des cassures double-brin de l’ADN (DSBs), la NHEJ (Non homologous end-joining). Les résultats présentés dans cette partie appuient un modèle dans lequel yKu aurait plusieurs sites de liaison aux télomères et dans les répétitions télomériques interstitielles. Nous supposons que la liaison du complexe se ferait lors de la formation d’une cassure de type « one-sided break » générée à la suite du passage de la fourche de réplication à l’intérieur des répétitions télomériques. Le chapitre 2 est également une étude des sites de liaison par la technique de ChEC in vivo du complexe yKu, mais cette fois-ci aux télomères X. Les observations faites dans cette partie viennent corroborer les résultats du chapitre 1 de la liaison de yKu à la jonction entre le télomère et les STRs, de plus elle met en évidence des interactions potentielles du complexe avec les éléments X laissant supposer l’existence d’un potentiel repliement du télomère sur la région sous-télomérique chez la levure. Enfin, le chapitre 3 est axé sur l’étude du comportement des survivants de type I, des cellules post-sénescences qui maintiennent leurs télomères par un processus de recombinaison homologue, le mécanisme de BIR (break-induced replication) en l’absence de télomérase. Les survivants de type I présentent une croissance lente liée à un arrêt du cycle cellulaire en phase G2/M qui dépend de la protéine de contrôle Rad9, dont l’activité est en général induite par des cassures double-brin. Ce chapitre a permis d’apporter des précisions sur la croissance lente probablement inhérente à un berceau télomérique très restreint chez ce type cellulaire.
Resumo:
Résumé : c-Myc est un facteur de transcription (FT) dont les niveaux cellulaires sont dérégulés dans la majorité des cancers chez l’homme. En hétérodimère avec son partenaire obligatoire Max, c-Myc lie préférentiellement les séquences E-Box (CACGTG) et cause l’expression de gènes impliqués dans la biosynthèse des protéines et des ARNs, dans le métabolisme et dans la prolifération cellulaire. Il est maintenant bien connu que c-Myc exerce aussi son potentiel mitogène en liant et inhibant différents FTs impliqués dans l’expression de gènes cytostatiques. Entre autres, c-Myc est en mesure d’inhiber Miz-1, un FT comportant 13 doigts de zinc de type Cys2-His2 (ZFs) impliqué dans l’expression de plusieurs gènes régulateurs du cycle cellulaire comprenant les inhibiteurs de CDK p15[indice supérieur INK4], p21[indice supérieur CIP1] et p57[indice supérieur KIP2]. Plus récemment, il fut démontré qu’en contrepartie, Miz-1 est aussi en mesure de renverser les fonctions activatrices de c-Myc et de prévenir la prolifération de cellules cancéreuses dépendantes de c-Myc. Ces différentes observations ont mené à la suggestion de l’hypothèse intéressante que la balance des niveaux de Miz-1 et c-Myc pourrait dicter le destin de la cellule et a permis d’établir Miz-1 comme nouvelle cible potentielle pour le développement d’agents anti-cancéreux. Malgré le fait que ces deux protéines semblent centrales à la régulation du cycle cellulaire, les mécanismes moléculaires leur permettant de s’inhiber mutuellement ainsi que les déterminants moléculaires permettant leur association spécifique demeurent assez peu documentés pour le moment. De plus, la biologie structurale de Miz-1 demeure à être explorée puisque qu’aucune structure de ses 13 ZFs, essentiels à sa liaison à l’ADN, n’a été déterminée pour l’instant. Les travaux réalisés dans le cadre cette thèse visent la caractérisation structurale et biophysique de Miz-1 dans le contexte de la répression génique causée par le complexe c-Myc/Miz-1. Nous présentons des résultats d’éxpériences in vitro démontrant que Miz-1 interagit avec c-Myc via un domaine contenu entre ses ZFs 12 et 13. De plus, nous démontrons que Miz-1 et Max sont en compétition pour la liaison de c-Myc. Ces résultats suggèrent pour la permière fois que Miz-1 inhibe les activités de c-Myc en prévenant son interaction avec son partenaire obligatoire Max. De plus, ils laissent présager que que Miz-1 pourrait servir de référence pour le développement d’inhibiteurs peptidiques de c-Myc. Finalement, nous avons réalisé la caractérisation structurale et dynamique des ZFs 1 à 4 et 8 à 10 de Miz-1 et avons évalué leur potentiel de liaison à l’ADN. Les résultats obtenus, couplés à des analyses bio-informatiques, nous permettent de suggérer un modèle détaillé pour la liaison spécifique de Miz-1 à son ADN consensus récemment identifié.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Le désir de trouver des outils pour rendre moins ardue l'adaptation des jeunes enseignantes et des jeunes enseignants à la profession enseignante est à l'origine de cette recherche. En effet, des statistiques alarmantes révèlent un taux très élevé d'abandon de la profession dans les cinq premières années d'enseignement au secondaire. La gestion de classe est reconnue dans la documentation scientifique comme une des principales difficultés éprouvées par les enseignantes et les enseignants débutants. Malgré toute la préparation liée, en grande partie, à la phase préactive de l'enseignement, la gestion des imprévus, une fois en classe, pose problème aux novices, puisqu'ils ne disposent pas d'un répertoire expérientiel suffisant pour faire face à une grande variété de situations. Cependant, avec le temps, les enseignants développent une certaine assurance qui les rend moins vulnérables devant les imprévus qui surviennent en classe, notamment en raison de leur capacité à improviser. Cette aisance manifestée par des enseignantes et des enseignants expérimentés devant toutes sortes de situations en classe semble établir un lien très étroit entre l'improvisation et une gestion de classe efficace, en particulier lorsque se présentent des situations non planifiées. Holborn (2003), à partir des travaux de Schön (1983) sur le processus de réflexion-en-action, établit un lien entre l'improvisation et l'enseignement de même que Yinger (1987) et Tochon (1993b). Durand (1996) et Le Boterf (2002) permettent de situer l'acte d'improviser à l'intérieur d'un système complexe de connaissances préalables ou complémentaires et font émerger l'idée que cette capacité puisse se développer autrement que par l'expérience. Les travaux de Sawyer (2004) et Lobman (2005), quant à eux, tissent des liens entre une formation en improvisation théâtrale et la gestion des interactions en classe. La recension des écrits révèle qu'une bonne partie de l'expertise en classe s'explique par l'utilisation de l'improvisation. Curieusement, mis à part Sawyer (2004) et Lobman (2005), aucun auteur ne semble considérer l'entraînement à l'improvisation comme un outil permettant d'apprendre à réagir face aux imprévus. Si Lobman (2005) démontre, en partie, qu'un entraînement à l'improvisation théâtrale peut avoir des incidences sur la gestion des interactions des enseignantes et des enseignants du préscolaire, aucune autre étude ne révèle les incidences que pourraient avoir les habiletés acquises dans un entraînement à l'improvisation sur la gestion des imprévus en classe chez des enseignantes et des enseignants du secondaire. C'est la raison pour laquelle cette recherche poursuit l'objectif d'expliciter la perception d'enseignantes et d'enseignants des composantes de leur entraînement à l'improvisation actives dans la gestion des imprévus en classe du secondaire. Pour atteindre cet objectif, une méthodologie qualitative est mise en oeuvre. Le cadre de collecte des données repose sur des entrevues semi-dirigées auprès d'enseignantes et d'enseignants ayant reçu ou non un entraînement à l'improvisation. La stratégie d'analyse utilisée s'inspire de l'analyse par théorisation ancrée de Paillé (1994) en empruntant les deux premières étapes de cette stratégie: la codification et la catégorisation. Par la suite, une schématisation préliminaire permet la mise en relation des composantes et alimente l'interprétation des résultats. Les résultats révèlent que la vigilance et la rapidité d'exécution interviennent directement dans le processus de gestion des imprévus en classe du secondaire et apparaissent comme étant exclusives aux enseignantes et enseignants ayant reçu un entraînement à l'improvisation. La discussion des résultats met non seulement en parallèle ces résultats avec les travaux de Tochon (1993b) et ceux de Yinger (1987) qui établissent un lien entre l'improvisation et la rapidité d'exécution, mais également avec les travaux de Nault (1998) sur l'hypersensitivité, concept inspiré du withitness de Kounin (1970) et des travaux de Doyle (1986) sur l'interactivité dans l'enseignement. De plus, un lien significatif est établi avec les études de Sawyer (2004) et Lobman (2005) au sujet du développement de la vigilance chez les sujets ayant reçu un entraînement à l'improvisation théâtrale. L'entraînement à l'improvisation offre d'intéressantes possibilités, notamment en ce qui a trait au développement de la compétence en gestion de classe chez les novices. Ainsi, en offrant des outils permettant à ces derniers d'atténuer le choc de la réalité à leurs débuts, ce moyen de formation pourrait contribuer, ultimement, à diminuer le taux d'abandon de la profession.
Resumo:
La présente recherche porte sur les traces écrites laissées par des élèves de quatrième secondaire sur leur texte en situation de préparation à une évaluation sommative. Compte tenu des milieux d'où ils proviennent et de leurs connaissances antérieures, force est de constater que les compétences en lecture de ces élèves sont très variables et ont des conséquences importantes non seulement dans leur cours de français, mais aussi dans toutes les autres matières: plus les élèves avancent dans leur cheminement scolaire, plus les enseignants leur demandent de lire des textes longs et complexes. Pourtant, force est de constater que les résultats en lecture des élèves de quatrième et cinquième secondaire restent faibles. De nombreuses études ont démontré que la lecture de textes narratifs mobilise tous les aspects de la lecture et augmente les compétences générales à lire. Pour les enseignants de français, une façon courante d'évaluer la lecture au deuxième cycle du secondaire est donc de distribuer un texte narratif bref (conte, nouvelle, extrait de roman) à l'avance aux élèves et de leur suggérer d'y laisser des traces écrites de leur réflexion ou des stratégies utilisées, dans le but de favoriser leur compréhension et leur interprétation du texte. Ces traces peuvent prendre la forme, par exemple, de soulignements, de surlignements, d'annotations dans les marges, de schémas. Toutefois, peu de recherches scientifiques se sont attardées aux opinions, aux conceptions et aux pratiques des élèves lorsqu'il s'agit de se préparer à une évaluation de la sorte. Notre recherche, exploratoire et descriptive, vise deux objectifs spécifiques: premièrement, décrire l'investissement, les opinions et attitudes, les conceptions et le mode d'investissement d'élèves de quatrième secondaire et, deuxièmement, décrire les relations entre ces quatre dimensions afin de dresser un portrait global du rapport des élèves aux traces écrites lors de leur préparation à une évaluation de lecture. Pour ce faire, nous avons privilégié une collecte de données en trois phases: après avoir passé, à un échantillon de 41 élèves volontaires, des questionnaires présentant des items à coter sur une échelle de Likert, nous avons observé les textes sur lesquels des traces de leur travail de préparation étaient visibles. Pour finir, nous avons rencontré quatre de ces élèves en entrevue semi-dirigées, choisis en fonction de leurs réponses aux questionnaires et du type de traces qu'ils avaient laissées. Pour augmenter la validité des résultats, les données recueillies à chacune des phases [ont] été croisées afin d'obtenir un maximum d'informations sur le rapport des élèves aux traces écrites. Les résultats obtenus montrent que, malgré le fait que les élèves ont des perceptions généralement assez positives du recours aux traces écrites, les traces qu'ils laissent généralement sur leurs textes sont peu pertinentes dans la mesure où elles ne contribuent pas, pour la plupart, à établir des liens essentiels à la compréhension globale du texte narratif, comme les liens de causalité. Les entrevues nous apprennent que certains élèves ont effectivement l'impression que certaines traces écrites sont plus pertinentes que d'autres, mais qu'ils ignorent souvent lesquelles et comment y recourir pendant leur lecture. Le rapport aux traces écrites est complexe, dépend de la situation et varie d'un individu à l'autre en fonction de plusieurs facteurs contextuels: les expériences et connaissances antérieures de l'élève, la résistance du texte imposé et les contacts avec les pairs. Tous ces facteurs influencent l'élève dans ce qu'il pense, ce qu'il ressent et ce qu'il fait lors de la préparation à une évaluation de lecture.
Resumo:
Cette thèse de doctorat, intitulée «Le récit personnel de guerre dans le Canada français/Québec du XXe siècle», est consacrée à l'étude du traitement de l'imaginaire épique et du héros guerrier dans plus d'une trentaine de témoignages de guerre d'expression française de 1914 à nos jours. Elle établit que le discours sur les combats qui s'y formule «retrouve spontanément le ton de l'épopée, langue maternelle du récit militaire héroïque, celle de l'Iliade » (Maurice RIEUNEAU, Guerre et révolution dans le roman français 1919-1939, Klincksieck, «Bibliothèque du XXe siècle», 1974, p. 157). Cette résilience épique et héroïque remarquable vaut pour toutes les époques. Fait à noter: même dans les récits contestataires, la contestation s'énonce en termes épiques, de héros qui poursuit son combat dans l'espace textuel. Voilà qui nuance quelque peu les résultats d'autres analyses, en particulier en Europe, où les spécialistes retiennent du XXe siècle: «Le récit de guerre [...] a périmé les plaisirs de l'épopée [...].» (Jean KAEMPFER, Poétique du récit de guerre, Paris, José Corti, 1998, p. 39). Avec la (post)modernité, l'épopée se réoriente. Dépassant le complexe du perdant qui marque plusieurs générations de francophones et les rend réceptifs aux valeurs de force et de virilité, le discours sort du repli sur soi, de l'isolement, de la solitude agressive pour pactiser avec l'ennemi juré (l'Allemand, le Japonais, mais aussi le Britannique, le Canadien anglais). Bref, l'identité, ébranlée par la différence, s'équilibre dans une démarche d'assainissement de la mémoire. L'affirmation progressive de soi se double d'une ouverture sur l'étranger, celui d'ailleurs et, à plus forte raison, d'ici.
Resumo:
Dès que l'homme entreprend de penser à sa propre existence, nécessairement il la pense et la dit comme s'il s'agissait d'une dualité: dualisme du sensible et de l'intelligible, du corps et de l'esprit... Nous nous proposons, dans les pages qui vont suivre, de réfléchir sur le sens de ce dualisme. Le problème est complexe; à la question: "Pourquoi faut-il que l'existence humaine se réfléchisse comme si elle était partagée, divisée?", on ne saurait répondre par un unique "parce que...". Dans Le Volontaire et l'Involontaire, Ricoeur reprend le problème de ce dualisme à quatre niveaux différents. Le dualisme est d'abord un problème suscité par l'entendement; celui-ci ne réalise son acte qu'en divisant; penser l'homme, c'est forcément le penser double. Mais l'entendement s'enracinant dans l'existence, penser c'est exister, d'un dualisme introduit par la pensée, nous sommes reconduits à un dualisme psychologique qui, convenablement réfléchi, doit se développer en un dualisme ontologique; l'existence se prête à une interprétation dualiste. Enfin, le problème est affecté d'un indice éthique: la faute, comme refus de l'être, vient dramatiser l'acte de penser; le sujet pensant passionnément sa condition d'homme, érige en dogme le dualisme institué par l'entendement. Comme la faute, au point de départ de la réflexion de Ricoeur, est mise entre parenthèses, comme d'autre part, Le Volontaire et l'Involontaire est un essai de psychologie philosophique, nous ne pourrons, dans ce travail, qu'esquisser le sens des dualismes éthique et ontologique.
Resumo:
L'identité et la réactivité cellulaires sont établies, maintenues et modulées grâce à l'orchestration de programmes transcriptionnels spécifiques. Les éléments régulateurs, des régions particulières de la chromatine responsables de l'activation ou de la répression des gènes, sont au coeur de cette opération. Ces dernières années, de nombreuses études ont révélé le rôle central des « enhancers » dans ce processus. En effet, des centaines de milliers « enhancers » seraient éparpillés dans le génome humain, majoritairement dans sa portion non-codante, et contrairement au promoteur, leur activation varierait selon le type ou l'état cellulaire ou en réponse à une stimulation physiologique, pathologique ou environnementale. Les « enhancers » sont, en quelque sorte, des carrefours où transitent une multitude de protéines régulées par les signaux intra- et extra-cellulaires et un dialogue s'établit entre ces diverses protéines et la chromatine. L'identification des « enhancers ainsi qu'une compréhension de leur mode de fonctionnement sont donc cruciales, tant au plan fondamental que clinique. La chromatine joue un rôle indéniable dans l'activité des éléments régulateurs, tant par sa composition que par sa structure, en régulant, entre autres, l'accessibilité de l'ADN. En effet, l'ADN des régions régulatrices est bien souvent masqué par un nucléosome occlusif, lequel doit être déplacé ou évincé afin de permettre la liaison des protéines régulatrices, notamment les facteurs de transcription (FTs). Toutefois, la contribution de la composition de la chromatine à ce processus reste incomprise. Le variant d'histone H2A.Z a été identifié comme une composante de la chromatine aux régions accessibles, dont des « enhancers » potentiels. Toutefois son rôle y est inconnu, bien que des études récentes suggèrent qu'il pourrait jouer un rôle important dans la structure de la chromatine à ces régions. Par ailleurs, un lien étroit existe entre H2A.Z et la voie de signalisation des oestrogènes (notamment la 17-[beta]-estradiol (E2)). Ainsi, H2A.Z est essentiel à l'expression de plusieurs gènes cibles de l'E2. Les effets de l'E2 sont en partie exercés par un FT, le récepteur alpha des oestrogènes (ER[alpha]), lequel se lie à l'ADN suite à son activation, et ce majoritairement à des « enhancers », et permet l'établissement d'un programme transcriptionnel spécifique. Cette thèse vise à définir le rôle d'H2A.Z aux « enhancers », et plus particulièrement son influence sur l'organisation des nucléosomes aux « enhancers » liés par ER[alpha]. D'abord, mes travaux effectués à l'échelle du génome ont démontré qu'H2A.Z n'est présent qu'à certains ER[alpha]-« enhancers » actifs. Cette particularité a fait en sorte que nous avons pu comparer directement les « enhancers » actifs occupés par H2A.Z à ceux non-occupés, afin de mettre en évidence sa relation à l'environnement chromatinien. Étonnamment, il est apparu qu'H2A.Z n'introduit pas une organisation unique ou particulière des nucléosomes aux « enhancers ». Par ailleurs, nos résultats montrent qu'H2A.Z joue un rôle crucial dans la régulation de l'activité des « enhancers ». En effet, nous avons observé que suite à leur activation par l'E2, les « enhancers » occupés par H2A.Z recrutent l'ARN polymérase II (ARNPII) et produisent un transcrit. Ils recrutent également RAD21, une composante du complexe cohésine impliqué, entre autres, dans des interactions chromosomiques entre « enhancers » et promoteurs. De façon intéressante, nous avons mis en évidence que ces trois évènements, connus pour leur importance dans l'activité des « enhancers », sont dépendants d'H2A.Z. Ainsi, la présence d'H2A.Z à l' « enhancer » pourrait permettre un environnement chromatinien favorable à trois aspects clés de l'activité des « enhancers » : la présence de l'ARNPII, la transcription et la formation d'une boucle d'interaction, et par la suite, de par la proximité « enhancer »-promoteur ainsi créée, augmenter la concentration d'ARNPII à proximité du promoteur favorisant l'expression du gène cible. Un tel rôle central d'H2A.Z dans l'activité d' « enhancers » spécifiques pourrait participer à un mécanisme épigénétique ciblé de la régulation de l'expression des gènes.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Par leur mode de rédaction, les dictionnaires de droit civil révèlent une conception du sens en droit qui se caractérise par son objectivité, son historicité et son unité, c’est-à-dire par un ensemble de qualités qui sont intimement liées dans l’imaginaire des civilistes. Ce faisant, les dictionnaires de droit civil présentent un certain découpage du monde qui ne tient pas toujours compte des sens multiples que les juristes attribuent aux termes fondamentaux de leur vocabulaire. C’est en dégageant l’origine et la raison d’être du décalage entre le sens tel qu’il est défini et celui qui est vécu que l’auteur montre à quel point les dictionnaires de droit civil s’inscrivent dans une relation complexe qu’entretiennent les juristes avec leur langage.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
La supervision clinique occupe une place importante dans la formation des futurs psychologues. Elle est souvent considérée comme une expérience très déterminante dans leur développement personnel et professionnel. Parmi les éléments qui composent la supervision clinique, la relation de supervision est souvent identifiée comme étant un pilier dans le développement des étudiants supervisés. En effet, une relation de supervision positive peut notamment être associée à la construction d’une confiance et d’une identité professionnelle chez le supervisé. Par contre, une relation de supervision davantage marquée par des éléments négatifs peut rendre celui-ci plus vulnérable et fragiliser le développement de ses compétences en tant que futur psychologue. Toutefois, malgré l’importance que la relation de supervision présente, un nombre limité d’études se sont intéressées spécifiquement à cette relation dans son ensemble. De plus, rares sont les chercheurs qui ont étudié à la fois la relation de supervision et le développement des étudiants supervisés. La présente étude visait donc à explorer en profondeur la relation de supervision et son influence sur le développement personnel et professionnel des supervisés selon leur point de vue, en adoptant une perspective globale qui tient compte de l’ensemble des éléments qui composent l’expérience de supervision. Pour ce faire, un devis qualitatif a été privilégié en raison de la nature exploratoire de cette recherche et parce qu’il s’avère pertinent pour approfondir les connaissances sur une réalité humaine et complexe. Des entrevues semi-structurées ont été réalisées auprès de six internes supervisés à la fin de leur quatrième année doctorale en psychologie clinique. Les données ont été analysées avec la méthode d’analyse qualitative inductive proposée par Blais et Martineau (2006). Une grille de catégorisation, composée de sept catégories principales ainsi que de catégories de plus petit niveau, a été construite à partir des données analysées. L’analyse des données a été poursuivie jusqu’à l’élaboration d’un cadre de référence sous forme de schéma permettant d’illustrer les liens entre les catégories. Il ressort des données qu’une relation de supervision plus marquée par des éléments positifs semble avoir un impact positif sur le développement personnel et professionnel des supervisés. Selon la perception des supervisés, ces éléments positifs réfèrent notamment aux caractéristiques positives du superviseur et du supervisé, à l’approfondissement de leur relation ainsi qu’à une présence inspirante du superviseur. En contrepartie, lorsque la relation de supervision s’avère plus marquée par des éléments négatifs, le développement des supervisés et la confiance avec laquelle ils entrent dans la profession semblent plus mitigés. Les caractéristiques négatives du superviseur et du supervisé font notamment partie de ces éléments négatifs perçus par les supervisés, de même qu’un inassouvissement des besoins d’apprentissage du supervisé ainsi qu’un manque d’arrimage émotionnel au sein de la relation. De plus, afin de proposer des hypothèses au sujet de la diversité des cheminements possibles ainsi que la multitude « d’ingrédients » qui peuvent influencer l’expérience des supervisés en regard de leur relation de supervision, les catégories principales ayant émergé des données ont été mises en lien dans le cadre de référence exposé sous forme de schéma. À la lumière des résultats obtenus ainsi que des forces et des limites de l’étude, des recommandations concernant les pistes d’investigation futures pour la recherche sont formulées. Les résultats et la discussion de la présente étude pourront fournir aux supervisés, aux superviseurs de même qu’aux programmes de formation doctorale en psychologie clinique un levier pour amorcer ou poursuivre une réflexion quant à l’importance de la relation de supervision pour le développement personnel et professionnel des futurs psychologues.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Les services écologiques sont essentiels au maintien de la vie humaine sur terre, puisqu’entre autres, ils participent à la production d’oxygène, de nourriture et de matériaux divers, régulent les cycles de l’eau et des nutriments et contribuent au bien-être humain ; ces services nous sont fournis depuis toujours, gratuitement et continuellement. Toutefois, les activités humaines compromettent de plus en plus ces services écologiques en déréglant les processus écologiques qui en sont à l’origine. Dans les paysages agricoles, les perturbations anthropiques sont connues pour affecter grandement la biodiversité et les services écologiques. L’intensification agricole ainsi que la perte et la fragmentation des habitats naturels menacent notamment les services de pollinisation, lesquels permettent la production de fruits et de graines, pour la reproduction des plantes et la consommation humaine. Cet essai évalue la perspective du service de pollinisation dans le cas précis du café en Mésoamérique. Le premier objectif de cet essai est de déterminer les enjeux écologiques, économiques et sociaux auxquels sont liés les pollinisateurs et la production durable et rentable de café. Le deuxième objectif de cet essai est d’identifier les mécanismes expliquant comment certains facteurs clés de la biodiversité et de l’aménagement peuvent augmenter les rendements du café à travers sa pollinisation par les abeilles. Le troisième objectif de cet essai est de proposer des mesures d’aménagement qui permettent d’intégrer davantage les pollinisateurs aux exploitations de café. Le quatrième et dernier objectif consiste à développer et prioriser des stratégies locales et régionales, qui puissent concilier l’application de ces mesures d’aménagement avec les réalités économiques et sociales. La revue de la littérature a permis de constater qu’en Mésoamérique, ce sont à la fois les populations d’abeilles sauvages et domestiques qui assurent la pollinisation du café. Ces insectes sont sensibles à la perturbation de leurs habitats, bien que certains soient plus tolérants que d’autres. De fait, l’aménagement local et l’aménagement régional peuvent soit bénéficier, soit nuire à la biodiversité d’abeilles et au service de pollinisation du café. Au niveau local, les systèmes agroforestiers de café, malgré de plus faibles rendements en comparaison à des monocultures intensives, sont plus résilients et maintiennent un service de pollinisation de qualité. Ils doivent donc être encouragés pour ne pas accentuer la dépendance des exploitations agricoles à des intrants externes (engrais, pesticides, herbicides, main d’œuvre supplémentaire ou mécanisation de l’agriculture) qui deviennent nécessaires pour compenser la perte des services écologiques et maintenir de hauts rendements. Au niveau régional, la forêt est essentielle au maintien de communautés de pollinisateurs abondants et riches en espèces. À l’échelle du paysage, des efforts doivent donc être investis pour préserver des habitats naturels de qualité et limiter l’isolement des exploitations de café. Cela est particulièrement vrai dans les paysages tropicaux où, contrairement aux paysages tempérés, il reste une proportion importante d’habitats naturels encore préservés. Ces habitats naturels et les terres destinées à d’autres usages (agriculture, élevage, etc.) forment une mosaïque complexe, si bien que l’aménagement du territoire soulève des enjeux majeurs aux niveaux politiques et institutionnels. Des efforts diversifiés sont donc nécessaires pour développer des solutions efficaces qui bénéficient durablement aux petits producteurs de café. Pour cela, il est essentiel que tous les membres de la chaîne de valeur du café soient des parties prenantes actives dans ces efforts. De l’échelle locale à l’échelle régionale, les producteurs, les coopératives, les gouvernements et les consommateurs ont tous une influence sur l’aménagement des paysages agricoles de café et sur les modes de vie ruraux. Bien que le rôle des insectes pollinisateurs dans l’augmentation des rendements soit reconnu, leur conservation requiert de meilleurs prix pour le café quand il est cultivé de façon respectueuse de la biodiversité, ainsi que des subventions directes pour préserver les forêts aux abords des exploitations et empêcher leur conversion en terres agricoles. À condition d’être ciblée et concertée, l’application de ces stratégies d’aménagement devrait permettre de maintenir le service de pollinisation du café en Mésoamérique.
Resumo:
Les conséquences associées aux changements climatiques peuvent déjà être perçues dans différents secteurs socio-économiques. Tel est le cas des zones côtières. Afin d’assurer la pérennité des populations dans les régions insulaires, différentes mesures d’adaptation côtières peuvent être utilisées. Or, ces mesures peuvent parfois manquer de vision à long terme et d’intégration de l’autre type de réaction aux changements climatiques soit l’atténuation. La difficulté à relier adaptation et atténuation est présente dans plusieurs secteurs, dont les zones côtières. La situation dans les territoires Québécois maritimes (plus précisément les côtes de la Côte-Nord, du Bas- Saint-Laurent et de la Gaspésie-Îles-de-la-Madeleine) est semblable à celle observée ailleurs, mais demeure unique étant donné la composition de ses côtes, l’évolution démographique de ces municipalités et son économie fortement basée sur le tourisme et l’industrie des pêches. Les principaux enjeux retrouvés dans ces territoires sont associés au tourisme, à l’industrie de la pêche, à la densité humaine et aux infrastructures qui en découlent ou au milieu naturel. Ces enjeux présentent différentes vulnérabilités face au changement climatique côtier auxquelles les municipalités doivent s’adapter. Les mesures d’adaptation côtières implantées au Québec peuvent être divisées en deux grandes catégories : les mesures techniques et les mesures règlementaires et politiques. Or, afin de s’adapter adéquatement les municipalités doivent faire preuve de multidisciplinarité et combiner les différentes techniques disponibles, ceci peut présenter une difficulté notable. La situation canadienne à l’extérieur du Québec est similaire pour les territoires Atlantiques Canadiens. Du côté du Pacifique, les types de menaces surviennent dans des proportions différentes à celles de l’Est. De façon générale, les provinces les plus à risques de la hausse du niveau des mers sont aussi celles qui utilisent principalement des mesures de protection d’urgence, optant pour une vision à court terme, ceci incluant le Québec. Le cadre législatif encadrant les territoires côtiers québécois du Golfe est complexe. En effet, il s’agit d’une combinaison de lois et règlements fédéraux et provinciaux qui s’entrecoupent, étant donné l’entrecroisement des compétences gouvernemental dans ce secteur. Ceci peut compliquer d’avantages le travail des municipalités québécoises. Afin de faciliter l’implantation de mesures d’adaptation considérant l’atténuation, les municipalités côtières québécoises pourraient développer un cadre d’évaluation des différentes mesures.