211 resultados para Question-Réponse (QR)
Resumo:
Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.
Resumo:
L'avènement des nouvelles technologies a modifié considérablement le marché des valeurs mobilières. Le certificat représentant les actions de personnes morales s'est dématérialisé, facilitant et augmentant la rapidité des échanges, mais en causant de nouveaux problèmes, notamment à cause de l'incertitude juridique entourant les transferts et les sûretés sur les valeurs mobilières et autres actifs financiers. Pour répondre à ces problématiques, le Uniform Commercial Code américain a créé de nouveaux concepts et de nouvelles règles applicables au régime de détention indirecte. S'inspirant du modèle américain, un effort international d'harmonisation a été déployé, comme en témoignent, entre autres, les initiatives de la Conférence de La Haye, d'UNIDROIT et de la Conférence pour l'harmonisation des lois au Canada. C'est ainsi que le Québec a adopté la Loi sur le transfert de valeurs mobilières et l'obtention de titres intermédiés, afin de combler les lacunes d'un régime devenu désuet. Toutefois, le projet de loi s'inscrit-il avec le régime civiliste du Québec? Le particulier peut-il hypothéquer des valeurs mobilières? Où se situent les titres dématérialisés et intermédiés? Nous tenterons de répondre à ces questions en deux temps ; premièrement, nous étudierons l'évolution des régimes de transfert et de sûretés sur les valeurs mobilières et autres actifs financiers ainsi que leurs particularités. Ensuite, nous étudierons la loi québécoise en parallèle avec les différents instruments d'harmonisation et avec le régime civiliste québécois des sûretés.
Resumo:
Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.
Resumo:
C. albicans est une levure pathogène opportuniste. Elle est un agent causal fréquent des infections muco-cutanées. C. albicans peut alterner entre la forme blastospore et mycélium. Cette dernière forme est impliquée dans la formation des biofilms. Le dimorphisme de C. albicans est contrôlé en partie par le phénomène de perception du quorum (quorum sensing) qui en autre, est associé à la molécule farnésol, produit par cette levure. La présence de cette molécule, inhibe la formation d’hyphe par C. albicans et par conséquent limite la formation de biofilms. Certaines souches ne répondent pas au farnésol et nous avons vérifié les hypothèses que : 1) la proportion des Non-Répondeurs (NR) au farnésol est similaire entre les souches de provenance orale et vaginale; 2) la capacité de formation de biofilm varie d’une souche à une autre mais les Non-Répondeurs en produisent en plus grande quantité; 3) la technique RAPD-PCR permettra de regrouper les souches de cette levure suivant leur provenance, leur capacité de formation de biofilm et leur aptitude à répondre au farnésol. La découverte d’une souche vaginale Non-Répondeur nous permet de croire que la proportion de ces souches est similaire entre les deux types de provenance. Les souches caractérisées Non-Répondeurs produisent 30 % plus de biofilm que les Répondeurs en absence de farnésol exogène dans le milieu. En présence de farnésol exogène, les Non-Répondeurs produisent 70 % plus de biomasse que les Répondeurs. De plus, la technique RAPD ne nous a pas permis de classer nos souches d’après les caractéristiques proposées. En conclusion, les souches orales de C. albicans semblent produire en moyenne plus de biomasse que les souches vaginales. Aussi, les NR semblent moins affectés par la présence du farnésol, ce qui pourrait causer la présence de biofilms tenaces. Les amorces utilisées pour la technique RAPD n’ont pas été efficace à la classification des souches dépendamment de leur provenance, de leur capacité à former un biofilm et à répondre au farnésol. Mots clés : Candida albicans, biofilm, perception du quorum (quorum sensing), farnésol, Non-Répondeur
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
Cette thèse rapporte le greffage chimique de brosses de polymères neutres de poly(acrylate de tert-butyle) (PtBA) et de brosses chargées d’acide polyacrylique (PAA) sur des substrats de mica afin d’étudier leur conformation en fonction de la densité de greffage, du pH et de la force ionique. Le greffage est réalisé par polymérisation contrôlée par transfert d’atome (ATRP) initiée depuis la surface de mica afin de contrôler la croissance du polymère et sa densité de greffage. L’étude de la conformation des brosses de PtBA et de PAA a été menée avec la technique AFM en mesurant les épaisseurs des films à sec et gonflés sous différentes conditions de solvant, de pH et de force ionique. Une monocouche d’amorceurs est tout d’abord greffée sur du mica porteur de groupes hydroxyles créés par plasma (Ar/H2O). Cette couche a été caractérisée par des mesures d’angle de contact et par la technique TOF-SIMS. L’amorceur greffé a ensuite permis d’initier l’ATRP directement depuis la surface pour former des brosses neutres de PtBA liés de façon covalente au mica. La croissance linéaire de l’épaisseur du film avec la masse molaire du polymère en solution et le taux de conversion montre que la polymérisation est contrôlée. De plus, la ré-initiation des chaînes greffées atteste du caractère vivant de la polymérisation. L’hydrolyse des brosses de PtBA, confirmée par des mesures d’angle de contact, d’épaisseur et par FT-IR, conduit à des brosses de PAA. Les différentes couches greffées sont stables à l’air, en milieu organique et en milieu aqueux et leur gonflement est réversible. Le degreffage de la couche de PAA est observé suite à une longue exposition à pH basique. Cette étude représente le premier exemple de brosses greffées chimiquement sur du mica par polymérisation initiée depuis la surface. La variation des paramètres de la réaction de greffage de l’amorceur, tels que la concentration et la durée de réaction, a permis de contrôler le taux de recouvrement de l’amorceur et la densité de greffage du polymère. Une grande gamme de taux de recouvrement de l’amorceur est accessible et se traduit par un intervalle de densités de greffage allant de faibles à élevées (e.g. 0,04 chaîne/nm2 à 0,5 chaîne/nm2). L’étude de la conformation des chaînes de PtBA dans le DMF montre que cet intervalle de densités recouvre le régime crêpe au régime brosse. Le gonflement de brosses de PAA et la variation de la hauteur de la brosse L ont été étudiés en fonction de la densité de greffage, du pH et du sel ajouté cs (NaCl). Une transition brusque de collapsée à étirée est observée avec l’augmentation du pH, indépendamment de la densité de greffage. A pH neutre, les brosses sont collapsées et se comportent comme des brosses neutres en mauvais solvant. A pH basique, les brosses sont gonflées et chargées et se trouvent dans un régime de Pincus caractéristique des polyélectrolytes forts. En présence de sel, les charges sont partiellement écrantées et les répulsions électrostatiques dominent toujours dans la brosse. Cette étude contribue à une meilleure compréhension du comportement complexe des brosses de polyélectrolytes faibles et apporte un soutien expérimental à la théorie sur le comportement de ces brosses.
Resumo:
Le contrôle de la longueur des télomères est une étape critique régissant le potentiel réplicatif des cellules eucaryotes. A cause du problème de fin de réplication, les chromosomes raccourcissent à chaque cycle de division. Ce raccourcissement se produit dans des séquences particulières appelées télomères. La longueur des télomères est en relation directe avec les capacités prolifératives des cellules et est responsable de la limite de division de Hayflick. Cependant, dans certains types cellulaires et dans plus de 90% des cancers, la longueur des télomères va être maintenue par une enzyme spécialisée appelée télomérase. Encore aujourd’hui, comprendre la biogénèse de la télomérase et savoir comment elle est régulée reste un élément clé dans la lutte contre le cancer. Depuis la découverte de cette enzyme en 1985, de nombreux facteurs impliqués dans sa maturation ont été identifiés. Cependant, comment ces facteurs sont intégrés dans le temps et dans l’espace, afin de produire une forme active de la télomérase, est une question restée sans réponse. Dans ce projet, nous avons utilisé la levure Saccharomyces cerevisiæ comme modèle d’étude des voies de biogénèse et de trafic intracellulaire de l’ARN de la télomérase, en condition endogène. La première étape de mon travail fut d’identifier les facteurs requis pour l’assemblage et la localisation de la télomérase aux télomères en utilisant des techniques d’Hybridation In Situ en Fluorescence (FISH). Nous avons pu montrer que la composante ARN de la télomérase fait la navette entre le noyau et le cytoplasme, en condition endogène, dans les cellules sauvages. Nos travaux suggèrent que ce trafic sert de contrôle qualité puisqu’un défaut d’assemblage de la télomérase conduit à son accumulation cytoplasmique et prévient donc sa localisation aux télomères. De plus, nous avons identifié les voies d’import/export nucléaire de cet ARN. Dans une deuxième approche, nous avons réussi à développer une méthode de détection des particules télomérasiques in vivo en utilisant le système MS2-GFP. Notre iv étude montre que contrairement à ce qui a été précédemment décrit, la télomérase n’est pas associée de façon stable aux télomères au cours du cycle cellulaire. En fin de phase S, au moment de la réplication des télomères, la télomérase se regroupe en 1 à 3 foci dont certains colocalisent avec les foci télomériques, suggérant que nous visualisons la télomérase active aux télomères in vivo. La délétion des gènes impliqués dans l’activation et le recrutement de la télomérase aux télomères entraine une forte baisse dans l’accumulation des foci d’ARN au sein de la population cellulaire. Nos résultats montrent donc pour la première fois la localisation endogène de l’ARN TLC1 in situ et in vivo et propose une vue intégrée de la biogenèse et du recrutement de la télomérase aux télomères.
Resumo:
En inhibant la formation de caillots dans le sang, les médicaments antiplaquettaires diminuent de façon importante le risque d’événements ischémiques aigus. Cependant, une sous-population de patients souffrant de maladie coronarienne présente une inhibition inadéquate de la fonction plaquettaire malgré la prise quotidienne d’acide acétylsalicylique (AAS). Le premier volet de cette thèse démontre qu’une régénération plaquettaire accélérée pourrait expliquer en partie la variabilité dans la persistance de l’effet antiplaquettaire de l’AAS chez certains sujets souffrant de maladie coronarienne. Ces données suggèrent qu’une augmentation de la fréquence d’administration d’AAS d’une à deux fois par jour pourrait être bénéfique chez ces sujets. Des méta-analyses ont suggéré qu’une réponse plaquettaire inadéquate à l’AAS pourrait augmenter le risque d’événements ischémiques récurrents. La nature rétrospective de ces analyses ne permet pas d’établir la causalité. Dans le deuxième volet de cette thèse, les résultats d’une étude prospective visant à comparer la pertinence clinique de 6 tests de fonction plaquettaire fréquemment utilisés pour évaluer la réponse plaquettaire à l’AAS est présentée. Les résultats démontrent qu’aucun des tests de fonction plaquettaire couramment employés ne prédit la survenue d’événements ischémiques aigus chez des patients souffrant de maladie coronarienne stable. Toutefois, la cessation de la prise d’AAS est un prédicteur important d’événements thrombotiques. La cessation de médicaments antiplaquettaires a souvent été associée à la survenue d’événements thrombotiques dans les jours suivant l’interruption. À savoir si la survenue de ces événements est attribuable uniquement au retrait d’un médicament protecteur ou plutôt à une sensibilisation plaquettaire, constitue un débat d’actualité. Dans le troisième volet de cette thèse, des données sont présentées démontrant que la cessation de clopidogrel après la période recommandée par les lignes directrices actuelles provoque une sensibilisation des plaquettes nouvellement formées aux stimuli plaquettaires physiologiques. Ces résultats encouragent la recherche sur différentes modalités pour atténuer le risque thrombotique accru chez ces patients souffrant de maladie coronarienne. En conclusion, cet ouvrage présente des études visant à identifier les sous-populations de patients qui sont plus à risque de complications cardiovasculaires récurrentes. Dans ce contexte, la personnalisation de traitement est une avenue thérapeutique prometteuse, où chaque patient pourra recevoir un traitement ciblé en fonction de ses besoins et de ses contre-indications. Ce changement de paradigme d’une thérapie empirique issue d’études de grande envergure sur des données populationnelles à une thérapie ajustée aux besoins individuels représente un vaste champ de recherche, où la majorité des découvertes sont à faire.
Resumo:
Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.
Resumo:
RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.
Resumo:
Les MAP kinases sont des enzymes essentielles impliquées dans 7 voies de signalisation distinctes qui permettent à la cellule de répondre de manière adéquate aux stimuli extra-cellulaires. Chez les mammifères, les MAP kinases les mieux caractérisées sont Erk1/2, Jnk, p38 et Erk5. Ces enzymes jouent un rôle important dans l’embryogenèse, la prolifération et la différenciation cellulaire ainsi que dans la réponse au stress. Erk4 est un membre atypique de la famille MAP kinase. D’une part, la boucle d’activation de Erk4 possède un motif SEG au lieu du motif TXY, très conservé chez les MAP kinases. D’autre part, Erk4 possède une extension en C-terminal du domaine kinase qui n’est pas présente chez les MAP kinases classiques. Jusqu’à présent aucune fonction n’a été attribuée à Erk4. De plus, la voie de signalisation ainsi que le mode de régulation conduisant à l’activation de Erk4 ne sont pas connus. Le seul substrat de Erk4 identifié jusqu’à maintenant est la MAPKAP kinase MK5. L’impact fonctionnel de cette interaction n’est également pas connu. Afin d’en apprendre davantage sur la MAP kinase atypique Erk4, nous avons étudié le mécanisme d’activation de cette kinase ainsi que sa fonction physiologique par une approche de délétion génique chez la souris. En ce qui concerne l’activation de Erk4, nous avons montré que la boucle d’activation de Erk4 (S186EG) est constitutivement phosphorylée in vivo et que cette phosphorylation n’est pas modulée par les stimuli classiques des MAP kinases dont le sérum et le sorbitol. Cependant, nous avons observé que la phosphorylation de la S186 augmente en présence de MK5 et que cette augmentation est indépendante de l’activité kinase de l’une ou l’autre de ces kinases. De plus, nous avons établi que la phosphorylation de la boucle d’activation de Erk4 est requise pour l’interaction stable entre Erk4 et MK5 ainsi que pour l’activation, et la relocalisation cytoplasmique de MK5. Ainsi, notre étude a permis de révéler que Erk4 est régulée de manière différente des MAP kinases classiques et que la phosphorylation de la boucle d’activation de Erk4 joue un rôle essentiel dans la régulation de l’activité de MK5. Parallèlement, nos résultats mettent en évidence l’existence d’une “Erk4 kinase”, dont le recrutement et/ou l’activation semble être facilité par MK5. Afin identifier la fonction physiologique de Erk4, nous avons généré des souris Erk4-déficientes. L’inactivation génique de Erk4 est viable et les souris ne présentent aucune anomalie apparente. Dans le but d’expliquer l’absence de phénotype, nous avons regardé si l’expression de Erk3, le paralogue de Erk4, pouvait compenser la perte de Erk4. Notre analyse a révélé que l’expression de Erk3 dans les souris Erk4-/- n’augmente pas au cours du développement embryonnaire ou dans les tissus adultes afin de compenser pour la perte de Erk4. Par la suite, nous avons adressé la question de redondance entre Erk4 et Erk3. Dans notre laboratoire, les souris Erk3-déficientes ont également été générées et le phénotype de ces souris a récemment été analysé. Cette étude a révélé que l’inactivation génique de Erk3 entraîne un retard de croissance intra-utérin, un défaut de maturation pulmonaire et la mort néo-natale des souriceaux. Nous avons donc regardé la contribution de Erk4 dans ces phénotypes. L’analyse des souris Erk4-/- a révélé que l’inactivation de Erk4 n’entraîne pas de retard de croissance ou de maturation du poumon. De plus, nous avons montré que l’inactivation additionnelle de Erk4 dans les souris Erk3-/- n’accentue pas le phénotype des souris Erk3-déficientes. Ainsi, notre étude a révélé que contrairement à Erk3, Erk4 n’est pas essentielle au développement murin dans des conditions physiologiques. Parallèlement, nous avons montré que Erk4 et Erk3 possèdent des fonctions non-redondantes in vivo.
Resumo:
Le dogme voulant que les récepteurs couplés aux protéines G (GPCRs) activent des voies de signalisation seulement lorsqu’ils sont localisés à la membrane plasmatique, a récemment été remis en question. Des données récentes indiquent que certains GPCRs peuvent également induire une réponse intracellulaire à partir des compartiments intracellulaires dont le noyau. Les récepteurs activés par la protéase (PAR) sont des membres de la famille GPCR. Les PARs sont activés par le clivage de la partie N–terminale du récepteur ce qui permet au ligand attaché sur le récepteur de se lier à sa poche réceptrice. Quatre PARs ont été décrits : PAR1, PAR2, PAR3 et PAR4. PAR2 peut susciter des effets mitogéniques et participer aux processus comme l’angiogenèse et l'inflammation. Alors que beaucoup d'effets intracellulaires de PAR2 peuvent être expliqués lorsqu’il est localisé à la membrane plasmatique, une fonction intracrine de PAR2 a aussi été proposée. Pourtant les mécanismes par lesquels PAR2 peut provoquer l’expression de gènes ciblés sont toujours inconnus. Le but de notre étude était de vérifier l’existence d’une population nucléaire de PAR2. Nous avons également émis l’hypothèse que les voies activées par l’activation de PAR2 dépendent de sa localization cellulaire. En utilisant des techniques de microscopie confocale et de "Western Blot" nous avons démontré la présence d’une population nucléaire de PAR2. À la suite de la stimulation de PAR2, nous avons observé une augmentation de la translocation du récepteur de la membrane plasmatique au noyau. En utilisant la technique de "RT – PCR", nous avons observé des rôles différents de PAR2 à la surface de la cellule et du noyau dans l’initiation de l’expression des gènes. Afin d’identifier les mécanismes responsables de la translocation nucléaire de PAR2, nous avons évalué l’implication des membres de la famille de "Sorting Nexins (SNX)" dans la translocation nucléaire de PAR2. "Sorting Nexins" est un groupe de protéines avec des fonctions de transport bien établies. SNX1 et SNX2 ont été identifiés comme responsables du transfert de PAR1 vers les lysosomes. SNX11 n'a pas encore été étudié et nous avons émis l’hypothèse qu'il pourrait être un autre membre de la famille des SNX impliqué dans la signalisation de PAR2. Pour ce faire, nous avons développé des "knockdowns" stables pour SNX1, SNX2 et SNX11 dans les cellules HEK293. En utilisant les essais d’immunofluorescence, "Western Blot" et de cytométrie en flux, nous avons déterminé que tous les trois membres du groupe SNX sont des partenaires d'interaction de PAR2. Toutefois, seul SNX11 se co-localise avec son partenaire au noyau et est responsable de sa translocation nucléaire. Les expériences de "RT - PCR" sur les lignées de cellule de SNXs "knockdowns" ont démontré que la fonction de PAR2 nucléaire dépend surtout de SNX11; néanmoins SNX1 et SNX2 peuvent aussi l’influencer, suggérant qu'ils font aussi partie du réseau signalétique de PAR2. En conclusion, PAR2 est déplacé de la membrane plasmatique à la membrane nucléaire après sa stimulation avec un agoniste. La translocation nucléaire de PAR2 par un mécanisme impliquant SNX11, initie des effets intracellulaires différents de sa signalisation membranaire. Mots clés : récepteurs couplés à la protéine G, “Sorting Nexins”, récepteurs activés par la protéase, translocation nucléaire, membrane nucléaire, signal nucléaire.
Resumo:
Le génie tissulaire est un domaine interdisciplinaire qui applique les principes du génie et des sciences de la vie (notamment la science des cellules souches) dans le but de régénérer et réparer les tissus et organes lésés. En d'autres mots, plutôt que de remplacer les tissus et les organes, on les répare. La recherche en génie tissulaire est considérable et les ambitions sont grandes, notamment celle de mettre fm aux listes d'attente de dons d'organes. Le génie tissulaire a déjà commencé à livrer des produits thérapeutiques pour des applications simples, notamment la peau et le cartilage. Les questions sur la façon de réglementer les produits thérapeutiques qui sont issus du génie tissulaire sont soulevées à chaque nouveau produit. À ce jour, ces questions ont reçu peu d'attention comparativement aux questions éthiques associées aux recherches avec les cellules souches et les risques qu'engendrent les produits biologiques. Il est donc important d'examiner si le cadre normatif qui entoure la mise en marché des produits issus du génie tissulaire est approprié puisque de tels produits sont déjà disponibles sur le marché et plusieurs autres sont en voie de l'être. Notre analyse révèle que le cadre canadien actuel n'est pas approprié et le moment d'une reforme est arrivé. Les États-Unis et l'Union européenne ont chacun des approches particulières qui sont instructives. Nous avons entrepris une revue des textes réglementaires qui encadrent la mise en marché des produits issus du génie tissulaire au Canada, aux États-Unis et dans l'Union européenne et formulons quelques suggestions de réforme.