455 resultados para théorie de la représentation politiques
Resumo:
Ce mémoire comprend deux volets : une étude théorique et un texte de création littéraire. Dans un premier temps, il s’agir d’étudier le rôle du désir dans la démarche thématique et philosophique employée par l’écrivain Wilson Harris dans son roman The Palace of the Peacock. Ainsi démonterons-nous dans le premier chapitre que Harris se sert – de façon paradoxale – du désir empirique pour faire valoir les limites mêmes de celui-ci. Nous aborderons dans le deuxième chapitre le rapport problématique qu’entretient, chez Harris, la subjectivité féminine avec la subjectivité masculine. En particulier, nous examinerons la représentation de ce rapport sous la forme de métaphores ayant trait à l’environnement et à l’anatomie. Nous avancerons que le caractère problématique que revêt le rapport entre subjectivités féminine et masculine dans le roman est en quelque sorte nécessitée par l’écriture même de Harris. Dans le troisième chapitre, nous prendrons part aux débats sur la poétique qui animent la littérature contemporaine afin de situer notre propre élan vers la création littéraire. En même temps, nous entreprendrons une tentative de récupération de certains des concepts théoriques formulés par Harris, en lien avec notre propre poétique. S’ensuivra notre projet de création littéraire, intitulé HEROISM/EULOGIES, qui constitue le quatrième et dernier chapitre du mémoire. Ce texte, extrait d’un projet d’écriture créative plus vaste, trace les mouvements d’un certain nombre de sujets à travers une Amérique imaginée.
Resumo:
Cette thèse a pour objet l'adaptation théâtrale du roman 'Tirano Banderas' (1926) de l'écrivain espagnol Ramón María del Valle-Inclán. À cette fin, une recherche sur la dramaturgie centrée sur le processus de transduction a été réalisée, concrètement sur l'interprétation et sur la transformation du texte original de Valle-Inclán, qui a donné lieu à un relevé mise en scène, comprenant le script et les principaux éléments de la représentation de la pièce "Tirano Banderas". En annexe sont joints le DC de la musique, les esquisses du décor et du maquillage, les partitions ainsi qu'un document audiovisuel de plusieurs scènes pilotes.
Resumo:
L'aimant organique NIT-2Py a été caractérisé expérimentalement et ses propriétés ont été simulées numériquement à partir de la théorie de la fonctionnelle de la densité. Le magnétisme dans ce matériau provient de la présence d'un électron non apparié sur chaque molécule qui a ainsi un moment magnétique non nul. Ceci a été confirmé par des simulations sur une molécule isolée. Les molécules de NIT-2Py cristallisent dans le groupe d'espace P21/c avec huit molécules par maille élémentaire pour former la structure cristalline Alpha étudiée dans ce document. Le moment effectif de la susceptibilité et l'entropie magnétique totale montre que ce matériau est un système de spins 1/2 avec un spin par molécule. Les mesures de chaleur spécifique ont mis en évidence la présence de deux phases magnétiques ordonnées à basse température qui sont séparées par un plateau en aimantation. Une première phase est observée à des champs magnétiques inférieurs à 2.2 T et a une température de transition de 1.32 K en champ nul. Les mesures de susceptibilité magnétique et d'aimantation ont permis d'établir que cette phase ordonnée est antiferromagnétique. Ceci est confirmé par les simulations numériques. La deuxième phase est induite par le champ magnétique avec une température de transition de 0.53 K à 6 T. L'information disponible sur cette phase est limitée et l'étude du système à l'extérieur des phases ordonnées en donne une meilleure compréhension. Un modèle de spins S=1/2 isolés et de dimères S=0 isolés reproduit bien les mesures d'aimantation et de chaleur spécifique au-dessus de 3 K. L'application d'un champ magnétique réduit l'écart d'énergie entre le singulet et le triplet du dimère jusqu'au croisement qui se produit à 6 T. La phase induite émerge précisément à ce croisement et on spécule l'existence d'un condensat de Bose-Einstein des états triplets.
Resumo:
Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.
Resumo:
L’intérêt marqué et simultané de plusieurs champs de recherche pour le développement des fonctions exécutives (FE) a permis de mettre en lumière le rôle primordial de ces fonctions dans plusieurs sphères du développement de la petite enfance jusqu’à l’âge adulte. Les mécanismes développementaux associés aux différences individuelles restent par ailleurs encore peu étudiés. Les deux articles empiriques qui constituent la thèse visent à documenter le rôle des comportements maternels observés en bas âge dans la prédiction des FE mesurées à l’âge préscolaire. Les deux articles s’inscrivent dans la foulée des travaux qui, selon une approche écologique (Bronfenbrenner, 1979), considèrent les effets d’interaction entre différents facteurs explicatifs pour mieux comprendre les mécanismes impliqués dans le développement de l’enfant. En ce sens, le premier article examine les interactions possibles entre le statut socioéconomique (SSE) de la famille et différentes dimensions du concept de sensibilité maternelle, dans la prédiction de deux dimensions des FE, soit les FE-conflit et les FE-inhibition. Dans le cadre de cette étude, 114 dyades mères-enfants ont participé à trois visites à domicile. Le SSE a été mesuré par questionnaire dans le cadre d’une première visite dans la famille lorsque les enfants avaient six mois, la sensibilité maternelle a été évaluée à 12 mois à partir du Tri de cartes de comportements maternels (Pederson & Moran, 1995) et les FE à 36 mois à partir d’une batterie de tâches choisie sur la base des orientations proposées par Carlson (2005). Le deuxième article explore, en se basant sur postulats de la Théorie de la susceptibilité différentielle (TSD), les possibles interactions entre différentes dimensions du concept de sensibilité maternelle et le tempérament de l’enfant, et ce également dans la prédiction des FE. Pour ce faire, 72 dyades ont également participé à trois visites à domicile. La sensibilité maternelle a été évaluée à 12 mois à partir du Tri de cartes de comportements maternels (Pederson & Moran, 1995), le tempérament à 15 mois à l’aide d’un questionnaire rempli par la mère (ICQ; Bates, Freeland, & Lounsbury, 1979) et les FE à 36 mois à partir de la même batterie de tâche (Carlson, 2005). Les résultats du premier article révèlent des interactions significatives entre le statut socioéconomique et certaines dimensions de comportements maternels, de telle sorte que des comportements maternels de meilleure qualité sont prédicteurs d’une meilleure performance aux tâches de FE, mais seulement chez les enfants provenant de familles relativement désavantagées sur le plan socioéconomique et essentiellement en ce qui concerne les FE-inhibition. Quant aux résultats du deuxième article, ils confirment les hypothèses de la Théorie de la susceptibilité différentielle, en révélant que les enfants ayant un tempérament difficile sont plus affectés par des comportements maternels hostiles, de même que par l’absence de comportements positifs et bénéficient davantage de la présence de comportements positifs et de l’absence de comportements négatifs, et ceci également au regard des FE-inhibition.
Resumo:
Ce travail explore la dualité telle qu’elle se présente dans deux ouvrages d’André Gide, Les Caves du Vatican et Les Faux-Monnayeurs. Thème majeur de la littérature, le double ne cesse d’illustrer les différentes tensions qui se créent et se combattent chez une seule et même personne. Souvent représenté physiquement dans la littérature du XIXe siècle à la suite de la figure du Doppelgänger, le double chez Gide se complexifie : plus subtil, il se manifeste de manière psychologique. La dualité se présente de deux manières dans les écrits d’André Gide : chez les personnages et à travers la narration. Par l’étude des contradictions et des inconséquences des personnages, de la représentation de la dualité chez différents personnages, de leur dédoublement et de leurs doubles discours, il sera possible de constater à quel point les personnages structurent la dualité. L’analyse de l’identité des narrateurs, de leurs interventions et des figures de rhétorique qu’ils emploient permettra également de comprendre que plus ils se révèlent, plus ils se complexifient.
Resumo:
Ce mémoire traite des propriétés du La2CuO4 dopé en trous, le premier supraconducteur à haute température critique ayant été découvert. Les différentes phases électroniques du cristal y seront présentées, ainsi que le diagramme de phases en dopage de ce matériau. Les trois structures dans lesquelles on peut retrouver ce cristal seront décrites en détail, et leurs liens présumés avec les phases électroniques seront présentés. Il s’en suivra une étude utilisant la théorie de la fonctionnelle de la densité combinée au modèle de Hubbard (DFT+U) des différentes phases structurales, en plus des phases antiferromagnétiques et paramagnétiques. L’effet de la corrélation électronique sur la structure cristalline sera également étudié par l’intermédiaire du paramètre de Hubbard. Le but sera de vérifier si la DFT+U reproduit bien le diagramme de phases expérimentales, et sous quelles conditions. Une étude des effets de l’inclinaison des octaèdres d’oxygène sur la structure électronique sera également présentée.
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
Le vieillissement de la population est un phénomène démographique auquel est confronté le Québec. Dans ce contexte, la protection des personnes inaptes et vulnérables, prendra de plus en plus d'importance au cours des prochaines années. Ces personnes doivent bénéficier d'une protection adéquate lors de l'ouverture d'un régime de protection à leur égard. Considérant que l'ouverture d'un régime de protection au majeur inapte est toujours le résultat d'une décision judiciaire, le greffier de la Cour supérieure du Québec a un rôle fondamental à jouer à l'occasion dans le processus judiciaire. À titre d'officier de justice, il a compétence pour prononcer le jugement d'ouverture du régime de protection. Par conséquent, le présent mémoire consiste à vérifier si les majeurs inaptes sont bien protégés par le rôle et les pouvoirs de l'officier de justice. Pour ce faire, le sujet à l'étude a fait l'objet d'une double approche. Dans un premier temps, le cadre juridique à l'intérieur duquel le greffier doit exécuter ses fonctions sera étudié. Dans un deuxième temps, les résultats et l'analyse d'une enquête empirique auprès des greffiers de la Cour supérieure du Québec seront exposés. Cette démarche permet une approche comparative entre la théorie et la pratique en la matière et permet de constater qu'il peut y avoir un écart entre les deux.
Resumo:
L'écriture dans une langue « d'adoption » est un phénomène littéraire de plus en plus courant. À ce jour, la contextualisation qui en est faite gravite principalement autour de l'identitaire et de l'exil, et néglige une approche moins biographique, plus attentive à ce que l'on pourrait appeler une poétique du bilinguisme, en filiation avec la philosophie du langage de Walter Benjamin. Le concept d'une langue pure, résonnant dans le silence de chacune des langues comme une présence antérieure, peut permettre d'accéder à cette ouverture des mots, et contribuer à réaliser leur simultané pouvoir de dévoilement et de dérobade, comme une invitation à l'écoute attentive de ce qui se dit à travers eux. de Silvia Baron Supervielle, écrivaine et traductrice francophone d'origine argentine, témoigne de l'extériorité inhérente aux langues. L'analyse du mémoire essaye de manière suggestive, par un agencement de concepts philosophiques complémentaires, de rendre palpable cette voix singulière dans trois publications de genres différents : réflexions philosophiques sur les langues (l'alphabet du feu), journal de lectrice et de poète (Le pays de l'écriture), poème en prose (La frontière). Il s'agit moins de formuler une théorie de l'entre- deux-langues que de montrer l'ouverture du verbe générée par l'écriture d'une langue à l'autre.
Resumo:
En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
La présente thèse porte sur l'utilité de la théorie de la fonctionnelle de la densité dans le design de polymères pour applications photovoltaïques. L'étude porte d'abord sur le rôle des calculs théoriques pour la caractérisation des polymères dans le cadre de collaborations entre la théorie et l'expérience. La stabilité et les niveaux énergétiques de certaines molécules organiques sont étudiés avant et après la sulfuration de leurs groupements carbonyles, un procédé destiné à diminuer le band gap. Les propriétés de dynamique électronique, de séparation des porteurs de charges et de spectres de vibrations Raman sont également explorées dans un polymère à base de polycarbazole. Par la suite, l'utilité des calculs théoriques dans le design de polymères avant leurs synthèses est considérée. La théorie de la fonctionnelle de la densité est étudiée dans le cadre du modèle de Scharber afin de prédire l'efficacité des cellules solaires organiques. Une nouvelle méthode de design de polymères à faible band gaps, basée sur la forme structurale aromatique ou quinoide est également présentée, dont l'efficacité surpasse l'approche actuelle de donneur-accepteur. Ces études sont mises à profit dans l'exploration de l'espace moléculaire et plusieurs candidats de polymères aux propriétés électroniques intéressantes sont présentés.
Resumo:
This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.
Resumo:
Le présent mémoire décrit le rôle et l’application de la méthode platonicienne des divisions telle que décrite dans le Sophiste, le Politique, le Phèdre et le Philèbe. Il met en relief les différences et les similitudes du rôle et de l’application de la méthode dans ces quatre dialogues, afin d’analyser la possibilité ou bien de postuler l’unité de la doctrine platonicienne, ou bien de retracer les lieux de son évolution. Certains auteurs du siècle dernier affirment qu’il n’est pas possible de retracer quelque évolution que ce soit dans la doctrine, et estiment même que la méthode des divisions est utilisée bien au-delà de ces quatre dialogues, et que son absence des dialogues de jeunesse ne doit en aucun cas être prise pour une absence de la doctrine de l’époque. D’autres sont au contraire convaincus que la méthode des divisions est propre à un stade de la pensée de Platon qui ne peut être que postérieur à l’introduction de la théorie des Formes intelligibles, et que cette méthode incarne même, à toutes fins pratiques, la dialectique platonicienne des dialogues tardifs.