14 resultados para Déterminisme
em Université de Montréal, Canada
Resumo:
À première vue, la responsabilité morale serait incompatible avec le déterminisme causal, le premier requérant un contrôle total sur sa personne et le second soutenant que nos actions sont fortement influencées (ou même dictées) par celles des autres. Dans cet article, je me positionnerai contre l’incompatibilisme, dont l’erreur résulte de la conception du libre arbitre. Si une personne s’avère jouer un rôle nécessaire dans l’obtention d’une action ou d’une conséquence, elle en est la cause principale bien qu’elle ne détienne pas un contrôle total sur sa personne. Cet article cherchera à établir les conditions permettant d’identifier les personnes jouant un rôle nécessaire dans la séquence causale et celles qui n’en jouent pas. Dans un premier temps, je reprendrai la théorie de John Martin Fisher et de Mark Ravizza : un individu est moralement responsable lorsqu’il détient un contrôle de guidage. Le contrôle de guidage doit être distingué du contrôle régulateur. Sommairement, le contrôle de guidage est détenu par l’individu étant à la source de la séquence causale, et le contrôle régulateur est détenu par l’individu qui peut influencer l’orientation cette séquence causale. Dans un second temps, j’arguerai, contre Fisher et Ravizza cette fois-ci, que la détention du contrôle régulateur permet également d’imputer une responsabilité morale.
Resumo:
L’installation architecturale, l’objet de recherche central de cette thèse, est un type d’intervention architecturale qui échappe autant au discours professionnel qu’à celui des chercheurs en architecture lorsqu’il s’agit de définir les limites de la profession et celles de la discipline. Prenant ses distances avec le déterminisme fonctionnaliste qui domine la pensée et la pratique courantes de l’architecture, la recherche a pour but de montrer que l’installation architecturale s’inscrit dans une tradition classique bien ancrée dans la pratique et dans la théorie de l’architecture et que son rôle dans la pensée sur le projet architectural et urbain de la ville contemporaine a occupé et occupe encore une place importante. C’est pour ces raisons que la recherche se présente essentiellement comme une exploration guidée avant tout par le souci de contribuer à la reconnaissance de cette pratique particulière de l’architecture. Avant de poser l’hypothèse de recherche, nous avons présumé que l’installation architecturale agit comme une construction active dans l’espace public, qu’elle comble certains manques quant à la définition des enjeux urbains de la ville contemporaine, particulièrement dans un contexte où les libertés de choix, de mouvances et d’opportunités sont largement accompagnés par des stratégies d’organisation, de contrôle public et de constructions technologiques, d’efficacité énergétique et fonctionnelle. La recherche a également supposé que cette valeur d’agitation sociale et culturelle est liée à certaines caractéristiques inhérentes à l’architecture, à la ville et à l’individu et qu’elle représente, par le fait même, un objet de recherche important tout en offrant une porte d’entrée dans les questions plus larges qui traversent la discipline. Parmi celles-ci sont particulièrement étudiés des pratiques et des discours qui échappent aux définitions usuelles et qui offrent un regard critique quant aux limites de la discipline, des pratiques qui mettent en lumière des idées telles que l’instable et l’événement, des notions d’intervention et d’éthique, d’action et d’exploration. Cette thèse cherche ainsi à éclairer la contribution potentielle de l’installation architecturale dans les problématiques urbaines et architecturales et de montrer comment l’expérience de la ville à travers le dispositif architectural peut transformer nos manières d’aborder l’espace construit.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité.
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
Dans la philosophie existentialiste de Sartre, l’existence précède l’essence. C’est-à-dire que c’est la réalité humaine vécue qui définit l’homme, et non une essence abstraite qui précèderait l’existence. L’essence de la vie humaine ne serait donc pas à la portée de la philosophie, qui voudrait établir une essence qui transcenderait la réalité humaine. Pour Sartre, cette tentative d’établir une essence est vaine. L’homme n’est pas simplement, mais a à être. Sartre entrevoit dans cette exigence la seule vraie possibilité de la liberté : la liberté c’est précisément le néant qui est au cœur de l’homme et qui contraint la réalité humaine à se faire au lieu d’être. Cette notion de la liberté absolue de l’homme est très forte et a évidemment suscité la critique. Sartre s’est attiré notamment la désapprobation des penseurs de l’École de Francfort. Ils lui reprochent de ne pas rendre justice aux déterminations spécifiques qu’impose le contexte historique, social et matériel. Sa notion de liberté viendrait dissocier l’horizon des possibilités des processus qui les fixent et, du coup le mène à cautionner tacitement le statut quo, en empêchant la liberté de servir de critère pour critiquer la domination existante. Une philosophie existentialiste reste-t-elle possible par-delà cette critique? La croyance en le caractère absurde de la vie humaine et l’exigence à se faire pour donner un sens à l’existence peuvent-elles tenir sans postuler la liberté absolue? Ou bien cette liberté doit-elle nécessairement être circonscrite par une théorie sociale critique, sans quoi l’existentialisme colportera clandestinement le maintien du statu quo?
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Port-au-Prince, la ville la plus peuplée des Caraïbes est ceinturée de quartiers précaires connus sous l’appellation de bidonvilles. Ces quartiers construits généralement sur des terrains dangereux, envahis par une population en quête de logement, abritent la plus forte proportion des habitants de la ville. Ils constituent en même temps des lieux d’observation de l’inimaginable capacité des populations locales à garantir l’accès à certains services. À travers l’action d’une association locale évoluant à Village solidarité dans la zone métropolitaine de Port-au-Prince, nous avons étudié les apports et les limites des stratégies utilisées dans l’organisation de services publics d’électricité. L’analyse repose fondamentalement sur une approche de développement local reposant sur cinq notions complémentaires et interreliées qui sont les suivantes : le projet commun, l’appartenance et l’identité collective, les ressources, le leadership, l’opportunité politique. Les résultats de la recherche font état d’un projet commun aux contours assez flous qui reflète des insuffisances au niveau des modes de pensée, et au niveau des ressources matérielles et financières mises en jeu. Le style de leadership en place au sein de l’association est teinté de déterminisme religieux, pris au piège des manœuvres clientélistes des politiciens locaux et infantilisé par l’action des agences gouvernementales. A la fin de l’étude nous dégageons des pistes pour dynamiser les forces du milieu et réorienter l’action associative afin d’aller vers un projet collectif. Ces pistes reposent fondamentalement sur la transformation des modes de pensée influençant l’action et la transformation des pratiques organisationnelles.
Resumo:
Les contre-exemples de Frankfurt sont inoffensifs contre l’argument de la conséquence (consequence argument), l’argument qui, à partir du principe des possibilités alternatives et du déterminisme, montre que nous ne pouvons être tenus moralement responsables de nos actions. En effet, ils sont formulés soit dans un cadre déterministe, soit dans un cadre indéterministe. S’ils sont formulés dans un cadre indéterministe, ils sont inoffensifs parce qu’ils contreviennent à un principe méthodologique que nous défendons : le principe de non-négation des prémisses (PNNP). En fait, nous montrons que pour tout argument donné, il est proscrit de supposer la négation d’une prémisse afin de réfuter une autre prémisse à moins que l’attaque réussisse à réfuter les deux prémisses en question. Or, d’une part, les contre-exemples de Frankfurt indéterministes supposent explicitement qu’une prémisse de l’argument de la conséquence – le déterminisme est vrai – est fausse; et d’autre part, ils ne peuvent pas nous donner de raisons de croire en l’indéterminisme, ce que nous montrons grâce à des considérations sur la transmission de la justification. Construire des contre-exemples de Frankfurt indéterministes est donc incorrect pour des raisons méthodologiques et logiques. S’ils sont formulés dans un cadre déterministe, les contre-exemples de Frankfurt font face à une autre accusation d’entorse argumentative, présentée dans la défense du dilemme (Dilemma Defence) de Kane-Ginet-Widerker : celle de la pétition de principe. Nous inspectons et nuançons cette accusation, mais concluons qu’elle tient puisque les contre-exemples de Frankfurt déterministes supposent au final une analyse des agents contrefactuels dans les mondes déterministes et de la relation « rendre inévitable » que ne peuvent endosser ni les incompatibilistes de la marge de manœuvre (leeway incompatibilists), ni les incompatibilistes de la source (source incompatibilists) ni non plus les semicompatibilistes. Conséquemment, les contre-exemples de Frankfurt ne peuvent plus soutenir la forme de compatibilisme à laquelle ils ont donné naissance. L’incompatibilisme de la source ne peut plus être préféré à l’incompatibilisme de la marge de manœuvre ni non plus rejeter toute participation des possibilités alternatives dans l’explication de la responsabilité morale sur cette seule base.
Resumo:
La biologie évolutionnaire est au cœur des débats contemporains concernant les comportements humains. Les concepts de libre arbitre et de la moralité doivent, par conséquent, être repositionnés par rapport à ce type d’explication. Le consensus actuel concernant le libre arbitre est qu’il se réduit à l’expérience du libre arbitre et que la vraie question est alors d’expliquer comment cette expérience s’inscrit dans le processus darwinien. D’autres, darwiniens, par contre, semblent vouloir offrir une réalité au libre arbitre tout en maintenant un certain déterminisme darwinien. Dans ce mémoire, les arguments d’Alex Rosenberg proposant la position originale d’anti-libre arbitre et d’antidéterminisme seront étudiés. L’étude détaillée du passage du nihilisme biologique vers un nihilisme moral démontré par une position physicaliste et naturaliste, adoptée par Rosenberg, permettra d’illustrer la position anti-libre arbitre et antidéterministe. Pour ce faire, les théories de la deuxième loi de la thermodynamique et de l’évolution par la sélection naturelle seront présentées et analysées afin de démontrer en quoi elles répondent à la position physicaliste et naturaliste d’une part, et d’autre part, comment elles justifient le passage du nihilisme biologique au nihilisme moral selon Rosenberg. Finalement, les arguments et la position d’Alex Rosenberg seront mis en relation avec le domaine de la métaéthique afin d’y déceler une contradiction : le nihilisme moral n’est peut-être pas aussi gentil que Rosenberg l’affirme.
Resumo:
Le constat duquel part notre idée de colloque est très simple : tout le monde s’accorde à dire que la réflexion sur le numérique est une priorité, mais l’on est encore loin d’avoir une définition précise des méthodes pour développer cette dernière, des œuvres et des auteurs à considérer comme référents dans ce domaine et d’un langage qui puisse être partagé par la communauté des chercheurs et compris par le grand public. L’analyse du monde numérique doit donc être en premier lieu une réflexion sur la culture numérique et non seulement sur les outils. Pareillement, avec le changement des supports, des modalités de publication, des mécanismes de visibilité, d’accessibilité et de circulation des contenus, c’est l’ensemble de notre rapport au savoir qui se trouve remis en question. Il est nécessaire de mettre en place une recherche qui puisse avoir une fonction structurante dans le développement d’une théorie et d’une pensée du numérique mais aussi dans l’implémentation de nouveaux outils de recherche et de visualisation conçus pour les humanités. Le numérique touche désormais l’ensemble de notre vie. Nous vivons dans une société numérique et dans une culture numérique. Les transformations qui ont engendré ce monde numérique se sont produites très rapidement et n’ont pas laissé le temps de développer une réflexion structurée capable de les comprendre. Il est impératif de créer au plus vite des repères théoriques permettant de situer notre culture numérique par rapport à notre vision du monde et aux catégories conceptuelles qui ont structuré nos valeurs, nos traditions et notre imaginaire.
Resumo:
Notre objectif est d’habiliter la conception merleau-pontienne de la connaissance de soi. La difficulté consiste en ce que Merleau-Ponty fait reposer tout savoir sur un contexte perceptif que le sujet est par principe incapable d’appréhender dans sa totalité. La connaissance s’appuie ainsi sur un contexte comportant des zones d’ombre qui éludent la réflexion. Nous éclairons d’abord cette affirmation générale à partir de deux principes fondamentaux empruntés à la Gestalttheorie, dont le premier stipule que la donnée de base de la perception est une figure sur un fond et le second que nos structures mentales cherchent l’équilibre. Nous appliquons ensuite ces prémisses au problème spécifique de la connaissance de soi. Cette présentation nous permet de cibler deux obstacles à notre prétention : l’irréductibilité du sujet à ce qu’il donne à voir dans l’effort réflexif, ainsi que sa liberté fondamentale, contaminant la vérité de son caractère arbitraire. Finalement, nous montrons que ces deux obstacles ne sont qu’apparents, à condition toutefois de renoncer à une connaissance de soi absolue, et de ménager un espace entre le déterminisme et la liberté.
Resumo:
Problématique: L’hypertension artérielle essentielle, facteur de risque majeur dans le développement des maladies cardiovasculaires, est un trait multigénique complexe dont les connaissances sur le déterminisme génétique nécessitent d’être approfondies. De nombreux loci à trait quantitatif (QTLs); soit des gènes responsables de faire varier la pression artérielle (PA), ont été identifiés chez l’humain et le modèle animal. Cependant, le mystère plane encore sur la façon dont ces gènes fonctionnent ensemble pour réguler la PA. Hypothèse et objectif: Plutôt qu’une addition de QTLs ayant chacun une action infinitésimale sur la PA, une interaction épistatique entre les gènes serait responsable du phénotype hypertendu. Ainsi, l’étude de cette épistasie entre les gènes impliqués, directement ou indirectement, dans l’homéostasie de la PA nous permettrait d’explorer de nouvelles voies de régulation moléculaire en cause dans cette maladie. Méthodes: Via la réalisation de souches congéniques de rats, où un segment chromosomique provenant d’une souche receveuse hypertendue (Dahl Salt Sensitive, SS/Jr) est remplacé par son homologue provenant d’une souche donneuse normotendue (Lewis, LEW), des QTLs peuvent être mis en évidence. Dans ce contexte, la combinaison de QTLs via la création de doubles ou multiples congéniques constitue la première démonstration fonctionnelle des interactions intergéniques. Résultats: Vingt-sept combinaisons au total nous ont menés à l’appréciation d’une modularisation des QTLs. Ces derniers ont été catégorisés selon deux principaux modules épistatiques (EMs) où les QTLs appartenant à un même EM sont épistatiques entre eux et participent à une même voie régulatrice. Les EMs/cascades agissent alors en parallèle pour réguler la PA. Grâce à l’existence de QTLs ayant des effets opposés sur la PA, nous avons pu établir l’ordre hiérarchique entre trois paires de QTLs. Cependant, lorsque cette suite régulatrice ne peut être déterminée, d’autres approches sont nécessaires. Nos travaux nous ont mené à l’identification d’un QTL situé sur le chromosome 16 du rat (C16QTL), appartenant au EM1 et qui révélerait une nouvelle voie de l’homéostasie de la PA. Le gène retinoblastoma-associated protein 140 (Rap140)/family with sequence similarity 208 member A (Fam208a), présentant une mutation non synonyme entre SS/Jr et LEW est le gène candidat le plus plausible pour représenter C16QTL. Celui-ci code pour un facteur de transcription et semblerait influencer l’expression de Solute carrier family 7 (cationic amino acid transporter, y+ system) member 12 (Slc7a12), spécifiquement et significativement sous exprimé dans les reins de la souche congénique portant C16QTL par rapport à la souche SS/Jr. Rap140/Fam208a agirait comme un inhibiteur de la transcription de Slc7a12 menant à une diminution de la pression chez Lewis. Conclusions: L’architecture complexe de la régulation de la PA se dévoile mettant en scène de nouveaux acteurs, pour la plupart inconnus pour leur implication dans la PA. L’étude de la nouvelle voie de signalisation Rap140/Fam208a - Slc7a12 nous permettra d’approfondir nos connaissances quant à l’homéostasie de la pression artérielle et de l’hypertension chez SS/Jr. À long terme, de nouveaux traitements anti-hypertenseurs, ciblant plus d’une voie de régulation à la fois, pourraient voir le jour.