562 resultados para Mise en décharge
Resumo:
Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès Sciences (M.Sc.) en sciences infirmières
Resumo:
On assiste, depuis les années 80, à une multiplication des engagements des opérateurs et des organisations internationales pour la mise en oeuvre de pratiques responsables dans le secteur touristique. Face à cette production exponentielle de chartes et de codes de bonne conduite, la question doit être posée de la réalité de leur altruisme. En effet, l’analyse de la littérature sur la responsabilité sociale des entreprises démontre amplement qu’elles sont avant tout les premières bénéficiaires de tels engagements. Ainsi, la promulgation de chartes et de codes de bonne conduite, qui permet le maintien de l’activité d’exploitation touristique, apparaît plus comme un moyen pour les entreprises d’apparaître éthiquement correctes et de se donner bonne conscience que comme une prise en considération réelle des demandes et des intérêts des populations et des territoires exploités.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
L’inhibition est nécessaire à la génération d’outputs coordonnés entre muscles antagonistes lors de la locomotion. Une baisse de la concentration neuronale en ions chlorure au cours du développement des mammifères conduit à l’émergence de l’inhibition. Cette baisse repose sur l’équilibre entre deux cotransporteurs cation-chlorure, KCC2 et NKCC1. KCC2 expulse Cl- de la cellule alors que NKCC1 pompe Cl- dans la cellule. L’opossum Monodelphis domestica naît dans un état très immature. Le seul comportement locomoteur qu’il présente à la naissance consiste en des mouvements rythmiques et alternés des membres antérieurs pour grimper le long du ventre de la mère vers une tétine. Les membres postérieurs sont des bourgeons immobiles dont le développement est en grande partie postnatal. Pour cette raison, cette espèce constitue un modèle idéal pour l’étude du développement locomoteur. Afin d’étudier les mécanismes conduisant à l’émergence de l’inhibition durant le développement moteur, nous avons décrit l’expression développementale de KCC2 et NKCC1 chez l’opossum postnatal par immunohistochimie au niveau des renflements spinaux. Les motoneurones et afférences primaires ont été identifiés en utilisant un marquage rétrograde au TRDA. Le marquage pour KCC2 et NKCC1 est détecté dans la moelle épinière ventrale dans la matière grise et blanche présomptive dès la naissance, ce qui suggère que l’inhibition serait déjà mise en place avant la naissance, permettant subséquemment l’alternance des membres antérieurs observée chez les nouveau-nés. L’expression développementale de KCC2 et NKCC1 suit des gradients ventrodorsal et médiolatéral, tels qu’observés chez les rongeurs (rats et souris). Le patron mature d’expression de ces cotransporteurs est observé aux alentours de la 5ème semaine postnatale lorsque la locomotion de l’opossum est mature. Enfin, entre la naissance et P5, les dendrites exprimant KCC2 au niveau de la corne dorsale sont retrouvées en apposition aux afférences primaires ce qui suggère un rôle de KCC2 dans la formation des circuits sensori-moteurs.
Resumo:
Dans la perspective de faire disparaître la dichotomie existant entre la santé et la maladie, le concept « santé-dans-la-maladie » (health-within-illness) est apparu dans les écrits infirmiers pour étudier la santé chez les personnes vivant avec une maladie chronique. Or, la recherche sur ce phénomène s’est surtout centrée sur l’expérience de santé (wellness) occultant celle de la maladie (illness). À l’heure actuelle, peu d’études ont été réalisées pour comprendre la coexistence de l’expérience de santé (wellness) et celle de maladie (illness) impliquée dans la réalité quotidienne des personnes vivant avec une maladie chronique. De plus, aucune d’entre elles ne s’est adressée à une clientèle vivant avec la sclérodermie systémique. Ainsi, cette étude avait pour but de décrire et de comprendre l’expérience de la sclérodermie systémique et celle de santé-dans-la-maladie dans le contexte d’adultes vivant avec cette maladie chronique. La perspective disciplinaire de la chercheure, en l’occurrence la philosophie du caring humain de Watson (1979, 1988, 1999, 2006, 2008), a soutenu le processus de recherche. En cohérence avec cette auteure, la méthode qualitative de type phénoménologique existentielle herméneutique élaborée par van Manen (1984, 1997, 2002) a été choisie pour encadrer ce processus. La collecte des données repose principalement sur l’expérience d’adultes québécois vivant avec la sclérodermie systémique, recueillie au moyen de 34 entretiens en profondeur réalisés auprès de 17 participants (14 femmes et trois hommes). Les résultats ont permis d’identifier quatre thèmes pour décrire d’une part, l’essence de l’expérience de la sclérodermie systémique, soit : (a) la souffrance interminable d’un corps malade; (b) la dysharmonie intérieure et relationnelle du soi; (c) le processus d’accommodation et (d) l’heuristique d’accommodation. D’autre part, les deux thèmes suivants ont émergé pour exposer l’essence de l’expérience de santé-dans-la-maladie: (a) la prise de pouvoir d’un nouveau soi et (b) l’harmonie avec l’existence. Un travail de mise en relation de ces deux essences a été effectué afin de développer une conceptualisation de l’expérience de santé-dans-la-maladie dans le contexte d’adultes québécois vivant avec la sclérodermie systémique. Ainsi, elle se conçoit comme « une dialectique dans laquelle le nouveau soi mobilise son pouvoir pour vivre en harmonie avec l’existence et pour s’accommoder à la souffrance interminable, où une dysharmonie intérieure et relationnelle est vécue dans le corps malade ». Les résultats de cette étude permettent de mieux comprendre la souffrance vécue par les personnes ayant la sclérodermie systémique de même que le processus et les stratégies d’accommodation à cette souffrance. Ils mettent également en évidence les moyens utilisés pour exercer un nouveau pouvoir sur leur vie et pour vivre en harmonie dans tous les aspects de leur existence. Enfin, la dialectique de santé-dans-la-maladie proposée dans cette étude souligne le caractère dynamique, continu et subjectif du processus d’intégration impliquant les expériences indissociables de la santé (wellness) et de la maladie (illness). Cette nouvelle conceptualisation de l’expérience de santé-dans-la-maladie, pouvant contribuer au renouvellement des pratiques de soins, suggère également une manière inédite d’exister lorsque la maladie chronique survient, soit celle d’ « être ni en santé, ni malade ».
Resumo:
Quel est le récit d’histoire littéraire québécoise que les étudiants retiennent à la fin de leur parcours collégial? Nous nous sommes intéressé à cette question. Par le biais d’un questionnaire, nous avons interrogé plus de 300 étudiants qui étaient à la fin de leurs études collégiales. Les réponses à ce questionnaire nous ont permis de tracer une ébauche du récit d’histoire littéraire québécoise, de mieux comprendre l’enseignement que les étudiants ont reçu et d’analyser ce récit. La première constatation que nous avons faite est que nous étions en présence d’une multitude de récits. En effet, il n’y a pas deux récits pareils et il y a une grande dispersion des résultats. Ensuite, ce qui a retenu le plus notre attention est l’absence de mise en intrigue. Les étudiants utilisent plusieurs éléments pour faire l’histoire de la littérature québécoise. Les plus importants sont : la Nouvelle-France, la littérature orale, le 19e siècle, le terroir, l’anti-terroir, le roman de la ville, les années 1960, la littérature migrante et la postmodernité. Mais il n’y a pas d’articulation entre ces éléments. Ils sont tous traités de façon autonome; nous avons l’impression d’être en présence d’un mur de briques sans mortier. L’absence de certains éléments semble expliquer la forme du récit : les étudiants font une histoire qui utilise seulement les courants, il y a une absence d’événements tant littéraires qu’historiques. Ils ne font pas de liens avec les autres littératures. Bref, les éléments pouvant servir à articuler un récit sont évincés. Il est donc difficile de considérer le récit des étudiants comme une histoire littéraire.
Resumo:
Dans le contexte de la mondialisation contemporaine, le développement d’une structure de gouvernance à plusieurs niveaux nous oblige à revoir notre compréhension de la souveraineté de l’État et de l’exercice de la démocratie. Notre objectif consiste à présenter la pensée de David Held au sujet des conséquences de ces transformations de la gouvernance politique sur la théorie démocratique. Dans un premier temps, nous analyserons les conséquences de l’atténuation de la souveraineté de l’État, dorénavant partagée avec diverses organisations supranationales, sur la théorie de l’État démocratique moderne. Nous verrons comment Held répond au déficit démocratique constaté au sein de ces organisations, en adaptant le principe de subsidiarité au système de gouvernance multicouche émergeant, et ce, afin de rétablir la congruence entre les décideurs et les destinataires de leurs décisions, caractéristique de l’activité (libérale) démocratique. Dans un deuxième temps, nous présenterons les fondements normatifs du modèle théorique qu’il préconise pour assurer la démocratisation de ce nouveau système de gouvernance. Nous verrons pourquoi, selon Held, la poursuite de l’idéal démocratique exige aujourd’hui la mise en oeuvre d’une variété de droits, inspirés des valeurs sociales-démocrates, qu’il faut enchâsser dans le cadre constitutionnel de toutes les institutions de gouvernance du monde contemporain. De plus, nous dégagerons les objectifs institutionnels qu’il faut atteindre afin de parvenir à la réalisation d’une social-démocratie mondiale. Nous conclurons avec une brève analyse critique de son interprétation du principe de subsidiarité et de son approche “du haut vers le bas” (top-down) des processus conduisant à la démocratisation des institutions supranationales.
Resumo:
Édition épuisée.
Resumo:
Depuis quelques années, les États adoptent des politiques qui cherchent à séparer l’admission des réfugiés sur le territoire d’un État et l’attribution du statut de réfugié. En Europe, ce genre de politique est désigné par le terme externalisation. Cependant, par souci d’objectivité, nous avons choisi d’employer le terme extraterritorial. En effet, l’expression externalisation comporte en elle-même la critique de son objet. En Europe, aucune politique qui dissocie l’attribution du statut de réfugié et l’entrée sur le territoire d’un État n’a été mise en place, toutefois, cette idée fait partie des réflexions institutionnelles et elle reste un objectif de l’agenda européen. Ce mémoire cherche donc à analyser la proposition de traitement extraterritorial des demandes de statut de réfugié, faite en Europe, au regard de l’obligation la plus contraignante au sein du droit international des réfugiés : le principe de non refoulement. En ce sens, il sera nécessaire d'analyser l'étendue ainsi que les limites du principe de non refoulement, au regard de l’interprétation et de la mise en œuvre qui en sont faites. Ce mémoire démontrera que derrière une vive polémique sur la question, la proposition de traitement extraterritorial des demandes de statut de réfugié est compatible avec l’article 33 alinéa 1 de la Convention relative au statut des réfugiés.
Resumo:
L’acide rétinoïque (AR) est le ligand des récepteurs nucléaires RAR et RXR qui agissent comme facteurs de transcription ligand-inductibles et médient ses effets biologiques. Il est connu que l’AR a des propriétés prodifférenciatrices et antiprolifératives, notamment sur les cellules de l’épithélium mammaire. Une perte de sensibilité de l’AR a toutefois été mise en évidence dans plusieurs lignées cellulaires mammaires cancéreuses, ce qui pourrait faciliter la croissance des tumeurs. Or jusqu’ici cette perte de sensibilité avait été attribuée à des défauts de la voie de signalisation de l’AR, causée par la perte de l’expression des récepteurs à l’AR dans la tumeur, bien que plusieurs lignées de cellules cancéreuses y soient tout de même très sensibles. Peu d’études se sont intéressées au rôle de la voie de synthèse de l’AR dans la transformation des cellules mammaires. En effet, l’AR est synthétisé à partir de la vitamine A, ou rétinol, son précurseur sanguin provenant de la diète. Les cellules de l’épithélium mammaire normales ont la capacité de synthétiser l’AR à partir du rétinol. Nos rapportons pour la première fois que l’épithélium mammaire est probablement le siège de la synthèse et de la signalisation de l’AR. Cela est dû, au moins en partie, à l’expression d’une enzyme de synthèse de l’AR, RALDH3, dans l’épithélium mammaire normal. Dans cette étude, nous démontrons que les cellules cancéreuses de type luminal, qui ont sensibles à l’AR (et qui expriment le récepteur des estrogènes ER, catégorie qui regroupe 75 % des tumeurs diagnostiquées) n’ont au contraire pas la capacité de sythétiser l’AR, probablement en raison d’une faible expression de RALDH3 dans les tumeurs, sous l’effet des estrogènes. Cela pourrait représenter un nouveau mécanisme favorisant la croissance des tumeurs luminales dont les cellules proliférent en présence du rétinol sanguin. RALDH1, une autre enzyme de la voie de synthèse de l’AR, et qui partage 70 % d’identité de séquence avec RALDH3, est un marqueur de tumeurs plus agressives et de la formation de métastase. Nous montrons au contraire, que RALDH3 est un marqueur d’une moindre probabilité de développer des métastases chez les patientes atteintes d’une tumeur luminale. Cela suggère des rôles different pour ces deux enzymes dans la glande mammaire. Nos résultats indiquent que RALDH1 et 3 ont des propriétés enzymatiques très différentes, ce qui est en accord avec cette dernière hypothèse. Nos données suggèrent aussi que RALDH1 et 3 pourraient être des marqueurs de populations distinctes de cellules dans la glande mammaire normale. Nous proposons d’exploiter les diffèrences entre RALDH1 et 3 afin de mettre au point des méthodes de séparation des différentes population de cellules de l’épithélium mammaire ce qui pourrait aider à comprendre le rôle de la synthèse d’AR dans ce tissu.
Resumo:
Thèse de doctorat réalisée en cotutelle avec l'Institut du social et du politique de l'École Normale supérieure de Cachan.
Resumo:
La santé publique n’échappe pas au courant actuel qui valorise le développement d’une culture de décision et d’action axée sur l’utilisation des données probantes. Des études qui portent sur les services de santé et les politiques publiques en lien avec les services de santé proposent diverses stratégies interactives entre les producteurs et les utilisateurs de connaissances pour favoriser le passage de la théorie vers la pratique. Dans ce contexte, une place importante est accordée aux activités de partage et d’utilisation des connaissances (PUC) au sein des organisations de santé. Or, la mise en œuvre de ces stratégies est peu documentée dans le cadre particulier de la pratique de la santé publique. Pour dégager les processus qui œuvrent au cœur du phénomène dans la pratique de la santé publique sur le territoire montréalais, des cadres au niveau de la direction régionale ont été interrogés sur leurs expériences et leurs perceptions relatives aux activités de PUC. L’analyse du corpus par théorisation ancrée a permis l’émergence de certains concepts clés qui ont été intégrés de manière à formuler une théorie substantive du partage et de l’utilisation des connaissances. La synergie entre le savoir, le savoir-faire et le savoir être se traduit par un savoir agir complexe des acteurs et des organisations qui implique avant tout un climat propice à la collaboration. L’importance accordée à la dimension relationnelle au cœur des activités de PUC témoigne de la volonté de mettre en place des structures collaboratives et de s’éloigner graduellement d’une gestion hiérarchique des savoirs dans la pratique de la santé publique à Montréal. Cette analyse démontre que les défis relatifs à la mise en œuvre d’activités de PUC dépassent les préoccupations reliées aux étapes du processus de transfert des connaissances tel que présenté par la plupart des modèles conceptuels traditionnels.