323 resultados para Preuve
Resumo:
Les domaines de transactivation (TAD) acides sont présents dans plusieurs protéines oncogéniques, virales et dans des facteurs de différenciation de cellules souches. Ces domaines acides contrôlent la transcription à travers une myriade d’interactions avec divers partenaires ce qui provoque l’activation de la transcription ou leur propre élimination. Cependant, dans la dernière décennie, de plus en plus de recherches ont démontré que les TAD possédaient un sous-domaine activation/dégradation (DAD) responsable pour une fonction d'activation de la transcription dépendante de la dégradation de la protéine. Un tel phénomène peut être accompli par plusieurs moyens tels que des modifications post-traductionnelles, l’association à des cofacteurs ou la formation d’un réseau d’interaction complexe en chaînes. Or, aucune preuve concrète n’a pu clairement démontrer le fonctionnement de la dépendance paradoxale entre ces deux fonctions sur un activateur de transcription. Le DAD, a été observé dans plusieurs facteurs de transcription incluant la protéine suppresseur de tumeur p53 et le facteur de différenciation érythrocyte EKLF. Un aspect particulier des DAD est que la composition de leur séquence d’acide aminé est fortement similaire à celle des domaines de liaison à l’ubiquitine (UBD) qui jouent un rôle clé dans le contrôle de la transcription à travers leur interaction non-covalente avec l’ubiquitine. Ainsi, dans ce mémoire, nous avons étudié la possibilité que les TAD acides soient capables d’agir comme UBD pour réguler leur fonction paradoxale à travers des interactions non-covalentes avec l’ubiquitine. L’analyse est faite en utilisant la résonnance magnétique nucléaire (RMN) ainsi qu’avec des essais fonctionnels de dégradation. En somme, cette étude amène une plus grande compréhension des protéines impliquées dans le contrôle des TAD et caractérise le tout premier exemple de TAD capable d’interagir avec l’ubiquitine.
Resumo:
Chez l'être humain, le pouvoir d'influence peut être accordé volontairement aux individus qui se démarquent par leurs habiletés exceptionnelles. Dans cette étude, deux théories issues de la perspective évolutionniste sur ce type de pouvoir sont confrontées : celle de la transmission sociale de l'information (Henrich et Gil-White 2001) et celle de l'échange social (Chapais 2012). Cinq hypothèses principales sont extraites et mises à l'épreuve : 1) la compétence supérieure de certains individus leur permet d'acquérir un statut supérieur; 2) la compétence d'un individu est évaluée par comparaison sociale et par l'intermédiaire de mécanismes psychosociaux; 3) les experts sont utiles à autrui puisqu'ils sont de meilleurs modèles à imiter et de meilleurs partenaires de coopération; 4) ces experts reçoivent de la déférence de leurs admirateurs en échange d'un partenariat avec eux ; 5) conséquemment, une compétition pour l'acquisition d'un statut supérieur émerge via la démonstration publique de la compétence et la recherche d'une réputation favorable. Ces prévisions sont testées par une analyse comparative de la littérature ethnographique portant sur dix sociétés de chasseurs-cueilleurs relativement égalitaires en utilisant la base de données du eHRAF of World Cultures. Les résultats appuient très fortement toutes les prévisions et indiquent que des asymétries de statut sont omniprésentes chez tous les peuples de l'échantillon, ce qui refléterait l'universalité des propensions psychosociales qui sous-tendent ces inégalités.
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Les écrits rapportent qu’entre 10% et 40% des personnes atteintes de troubles mentaux ont présenté des comportements agressifs depuis l’établissement du diagnostic, et qu’entre 50% et 65% de ces comportements sont perpétrés envers les membres de la famille (Estroff et al., 1998). Or, les aidants naturels se sentent fréquemment démunis devant le comportement impulsif et agressif de leur proche atteint d’un trouble de santé mentale (Bonin & Lavoie-Tremblay, 2010) et la majorité des proches aidants ne reçoivent pas de soutien professionnel (Doornbos, 2001). À cet effet, une équipe de chercheurs et d’organismes communautaires ont mis sur pied un projet de formation adaptée par et pour les familles relativement à la gestion des comportements agressifs de leur proche atteint d’un trouble de santé mentale s’appuyant sur l’approche OMEGA communautaire (Bonin et al., 2011). La présente recherche est inspirée du modèle de Fresan et ses collaborateurs (2007), qui inclut les familles et leur proche atteint dans la prévention de la rechute et le rétablissement de ce dernier. Cette étude avait donc pour but de décrire et analyser, par un devis mixte, les perceptions de l’agressivité, du fonctionnement familial ainsi que de l’observance au traitement médical de personnes atteintes de troubles mentaux, suite à une formation de gestion des comportements agressifs adaptée par et pour des membres de familles, et suivie par leur proche aidant. Des questionnaires auto-administrés ont été remis et complétés par 25 personnes atteintes et comprenaient trois instruments qui étaient : 1. un questionnaire sociodémographique; 2. le Basis-24 (Eisen, 2007) permettant d’évaluer la condition mentale de la personne atteinte; 3. l’Échelle de perception de l’agressivité permettant de mesurer la fréquence et le niveau des comportements agressifs (De Benedictis et al., 2011); et 4. l'Échelle du fonctionnement familial permettant de mesurer le fonctionnement familial (Epstein, Baldwin, & Bishop, 1983). Des questions supplémentaires au questionnaire portaient sur l’observance au traitement médical et sur les changements observés. Des analyses descriptives et corrélationnelles bivariées ont été réalisées pour analyser les données quantitatives. Par la suite, des entrevues individuelles ont été réalisées auprès de huit personnes atteintes de troubles mentaux dont le membre de famille avait suivi la formation de gestion des comportements agressifs. La méthode d’analyse classique de Miles et Huberman (2003) a été utilisée pour réaliser l’analyse des données. L’analyse des données a permis de dégager les perceptions des personnes atteintes de troubles mentaux au regard de la formation de gestion des comportements agressifs que leur membre de famille avait suivi. Ainsi, le programme de formation OMÉGA adaptée par et pour les familles permettrait d’une part de diminuer l’agressivité et, d’autre part, d’améliorer le climat familial. De plus, selon les personnes atteintes, leur membre de famille était plus à l’écoute et faisait moins preuve d’intrusion, ce qui diminuaient les conflits et favorisaient une meilleure dynamique familiale. Cette étude a mis en évidence qu’il est nécessaire d’impliquer les familles dans les programmes de prévention de la rechute de la maladie mentale dans les soins de première ligne. Cette étude contribue ainsi à l’amélioration des connaissances sur la dynamique famille-patient et sur le rétablissement des personnes atteintes de troubles mentaux. Aussi, cette recherche propose des recommandations pour la recherche, la pratique, la formation et la gestion en sciences infirmières.
Resumo:
Introduction: La surcharge de pression ventriculaire augmente à l’exercice chez les patients avec une sténose de valve aortique (SVA). Lorsqu’il n’y a aucun symptôme apparent, il est cependant difficile d’indiquer l’intervention chirurgicale en utilisant seulement les indices de surcharge de pression ventriculaire. D’autres paramètres, tels que la dispersion de la repolarisation ventriculaire (d-QT), qui augmentent avec le gradient de pression transvalvulaire (GPT), n’ont pas été étudiés dans la SVA. L’objectif de l’étude était de déterminer le modèle de réponse du segment QT et de la d-QT à l’épreuve d’effort chez des enfants avec une SVA congénitale modérée afin d’évaluer l’impact de la surcharge de pression ventriculaire selon une perspective électrophysiologique. Matériel et méthodes: 15 patients SVA modérés ont été comparés à 15 sujets contrôles appariés pour l’âge (14.8±2.5 ans vs. 14.2±1.5 ans) et pour le sexe (66,7% de sujets mâles). Tous les sujets ont fait une épreuve d’effort avec enregistrement électrocardiographique à 12 dérivations. Le segment QT a été mesuré à partir du début du complexe QRS jusqu’à l’apex de l’onde T (QTa) au repos, à l’effort maximal ainsi qu’après 1 et 3 minutes de récupération. La longueur du segment QT a été corrigée selon l’équation de Fridericia et la d-QT a été calculée. Résultats: La longueur du segment QT corrigée (QTc) était similaire au repos entre les groupes d’étude, mais était significativement élevée chez les SVA en comparaison avec le groupe contrôle à l’effort maximal (p=0.004) ainsi qu’après 1 (p<0.001) et 3 (p<0.001) minutes de récupération. Une interaction significative a été identifiée entre les groupes pour la d-QT (p=0.034) et les tests post hoc ont révélé une différence significative seulement au repos (p=0.001). Conclusions: Les anomalies de repolarisation ventriculaire peuvent être révélées par l’évaluation de la repolarisation électrique lors de l’épreuve d’effort chez les SVA modérées asymptomatiques. L’utilisation de la réponse du QT à l’effort pourrait être bénéfique pour l’optimisation de la stratification du risque chez ces patients.
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Emma Hamilton (1765-1815) eut un impact considérable à un moment charnière de l’histoire et de l’art européens. Faisant preuve d’une énorme résilience, elle trouva un moyen efficace d’affirmer son agentivité et fut une source d’inspiration puissante pour des générations de femmes et d’artistes dans leur propre quête d’expression et de réalisation de soi. Cette thèse démontre qu’Emma tira sa puissance particulière de sa capacité à négocier des identités différentes et parfois même contradictoires – objet et sujet ; modèle et portraiturée ; artiste, muse et œuvre d’art ; épouse, maîtresse et prostituée ; roturière et aristocrate ; mondaine et ambassadrice : et interprète d’une myriade de caractères historiques, bibliques, littéraires et mythologiques, tant masculins que féminins. Épouse de l’ambassadeur anglais à Naples, favorite de la reine de Naples et amante de l’amiral Horatio Nelson, elle fut un agent sur la scène politique pendant l’époque révolutionnaire et napoléonienne. Dans son ascension sociale vertigineuse qui la mena de la plus abjecte misère aux plus hauts échelons de l’aristocratie anglaise, elle sut s’adapter, s’ajuster et se réinventer. Elle reçut et divertit d’innombrables écrivains, artistes, scientifiques, nobles, diplomates et membres de la royauté. Elle participa au développement et à la dissémination du néoclassicisme au moment même de son efflorescence. Elle créa ses Attitudes, une performance répondant au goût de son époque pour le classicisme, qui fut admirée et imitée à travers l’Europe et qui inspira des générations d’interprètes féminines. Elle apprit à danser la tarentelle et l’introduisit dans les salons aristocratiques. Elle influença un réseau de femmes s’étendant de Paris à Saint-Pétersbourg et incluant Élisabeth Vigée-Le Brun, Germaine de Staël et Juliette Récamier. Modèle hors pair, elle inspira plusieurs artistes pour la production d’œuvres qu’ils reconnurent comme parmi leurs meilleures. Elle fut représentée par les plus grands artistes de son temps, dont Angelica Kauffman, Benjamin West, Élisabeth Vigée-Le Brun, George Romney, James Gillray, Joseph Nollekens, Joshua Reynolds, Thomas Lawrence et Thomas Rowlandson. Elle bouscula, de façon répétée, les limites et mœurs sociales. Néanmoins, Emma ne tentait pas de présenter une identité cohérente, unifiée, polie. Au contraire, elle était un kaléidoscope de multiples « sois » qu’elle gardait actifs et en dialogue les uns avec les autres, réarrangeant continuellement ses facettes afin de pouvoir simultanément s’exprimer pleinement et présenter aux autres ce qu’ils voulaient voir.
Resumo:
La Critique de la raison pure est traversée de part en part par une analogie juridique dont l’étude peut enrichir la compréhension de l’œuvre. Il est ainsi question, dès la préface, d’une raison qui se juge elle-même devant son propre tribunal, ce qui constituera le point de départ de notre analyse. Or, ce tribunal très particulier doit se fonder sur une connaissance de soi approfondie de la raison. Cette entreprise est de fait réalisée au fil des développements de la Critique. Le rôle bien particulier joué à cet égard par les trois déductions présentes dans l’œuvre sera dûment examiné. On verra par ailleurs que la déduction doit elle-même être considérée plutôt comme procédure d’inspiration juridique que comme inférence, tout en conservant pourtant un statut de preuve philosophique. Les nombreuses allusions juridiques effectuées par Kant au fil de l’œuvre seront ainsi mises à profit dans le cadre de cette interprétation.
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
Les interactions ARN/ARN de type kissing-loop sont des éléments de structure tertiaire qui jouent souvent des rôles clés chez les ARN, tant au niveau fonctionnel que structural. En effet, ce type d’interaction est crucial pour plusieurs processus dépendant des ARN, notamment pour l’initiation de la traduction, la reconnaissance des ARN antisens et la dimérisation de génome rétroviral. Les interactions kissing-loop sont également importantes pour le repliement des ARN, puisqu’elles permettent d’établir des contacts à longue distance entre différents ARN ou encore entre les domaines éloignés d’un même ARN. Ce type d’interaction stabilise aussi les structures complexes des ARN fonctionnels tels que les ARNt, les riborégulateurs et les ribozymes. Comme d’autres ARN fonctionnels, le ribozyme VS de Neurospora contient une interaction kissing-loop importante. Celle-ci est impliquée dans la reconnaissance du substrat et se forme entre la tige-boucle I (stem-loop I, SLI) du substrat et la tige-boucle V (stem-loop V, SLV) du domaine catalytique. Des études biochimiques ont démontré que l’interaction kissing-loop I/V, dépendante du magnésium, implique trois paires de bases Watson-Crick (W-C). De plus, cette interaction est associée à un réarrangement de la structure du substrat, le faisant passer d’une conformation inactive dite unshifted à une conformation active dite shifted. Les travaux présentés dans cette thèse consistent en une caractérisation structurale et thermodynamique de l’interaction kissing-loop I/V du ribozyme VS, laquelle est formée de fragments d’ARN représentant les tige-boucles I et V dérivées du ribozyme VS (SLI et SLV). Cette caractérisation a été réalisée principalement par spectroscopie de résonance magnétique nucléaire (RMN) et par titrage calorimétrique isotherme (isothermal titration calorimetry, ITC) en utilisant différents complexes SLI/SLV dans lesquels l’ARN SLV est commun à tous les complexes, alors que différentes variations de l’ARN SLI ont été utilisées, soit en conformation shiftable ou preshifted. Les données d’ITC ont permis de démontrer qu’en présence d’une concentration saturante de magnésium, l’affinité d’un substrat SLI preshifted pour SLV est extrêmement élevée, rendant cette interaction plus stable que ce qui est prédit pour un duplexe d’ARN équivalent. De plus, l’étude effectuée par ITC montre que des ARN SLI preshifted présentent une meilleure affinité pour SLV que des ARN SLI shiftable, ce qui a permis de calculer le coût énergétique associé au réarrangement de structure du substrat. En plus de confirmer la formation des trois paires de bases W-C prédites à la jonction I/V, les études de RMN ont permis d’obtenir une preuve structurale directe du réarrangement structural des substrats SLI shiftable en présence de magnésium et de l’ARN SLV. La structure RMN d’un complexe SLI/SLV de grande affinité démontre que les boucles terminales de SLI et SLV forment chacune un motif U-turn, ce qui facilite l’appariement W-C intermoléculaire. Plusieurs autres interactions ont été définies à l’interface I/V, notamment des triplets de bases, ainsi que des empilements de bases. Ces interactions contribuent d’ailleurs à la création d’une structure présentant un empilement continu, c’est-à-dire qui se propage du centre de l’interaction jusqu’aux bouts des tiges de SLI et SLV. Ces études de RMN permettent donc de mieux comprendre la stabilité exceptionnelle de l’interaction kissing-loop I/V au niveau structural et mènent à l’élaboration d’un modèle cinétique de l’activation du substrat par le ribozyme VS. En considérant l’ensemble des données d’ITC et de RMN, l’étonnante stabilité de l’interaction I/V s’explique probablement par une combinaison de facteurs, dont les motifs U-turn, la présence d’un nucléotide exclu de la boucle de SLV (U700), la liaison de cations magnésium et l’empilement de bases continu à la jonction I/V.
Resumo:
Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».
Resumo:
Ce mémoire traite de la question suivante: est-ce que les cobordismes lagrangiens préservent l'uniréglage? Dans les deux premiers chapitres, on présente en survol la théorie des courbes pseudo-holomorphes nécessaire. On examine d'abord en détail la preuve que les espaces de courbes $ J $-holomorphes simples est une variété de dimension finie. On présente ensuite les résultats nécessaires à la compactification de ces espaces pour arriver à la définition des invariants de Gromov-Witten. Le troisième chapitre traite ensuite de quelques résultats sur la propriété d'uniréglage, ce qu'elle entraine et comment elle peut être démontrée. Le quatrième chapitre est consacré à la définition et la description de l'homologie quantique, en particulier celle des cobordismes lagrangiens, ainsi que sa structure d'anneau et de module qui sont finalement utilisées dans le dernier chapitre pour présenter quelques cas ou la conjecture tient.
Resumo:
La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.