98 resultados para Rehaussement d’images
Resumo:
La microscopie par fluorescence de cellules vivantes produit de grandes quantités de données. Ces données sont composées d’une grande diversité au niveau de la forme des objets d’intérêts et possèdent un ratio signaux/bruit très bas. Pour concevoir un pipeline d’algorithmes efficaces en traitement d’image de microscopie par fluorescence, il est important d’avoir une segmentation robuste et fiable étant donné que celle-ci constitue l’étape initiale du traitement d’image. Dans ce mémoire, je présente MinSeg, un algorithme de segmentation d’image de microscopie par fluorescence qui fait peu d’assomptions sur l’image et utilise des propriétés statistiques pour distinguer le signal par rapport au bruit. MinSeg ne fait pas d’assomption sur la taille ou la forme des objets contenus dans l’image. Par ce fait, il est donc applicable sur une grande variété d’images. Je présente aussi une suite d’algorithmes pour la quantification de petits complexes dans des expériences de microscopie par fluorescence de molécules simples utilisant l’algorithme de segmentation MinSeg. Cette suite d’algorithmes a été utilisée pour la quantification d’une protéine nommée CENP-A qui est une variante de l’histone H3. Par cette technique, nous avons trouvé que CENP-A est principalement présente sous forme de dimère.
Resumo:
Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Depuis la colonisation jusqu’aux plus récents conflits qui affectent le « Moyen-Orient », le visuel participe à la création d’une image raciale et sexuelle du monde musulman dans laquelle l’Orient « archaïque » est représenté comme l’opposé moral de l’Occident « moderne ». Ce discours nommé Orientalisme (Saïd 1994) transforme l’Orient en objet du savoir et du regard occidental (Nochlin 1989). La peinture, la photographie, et les expositions universelles sont autant de moyens qui permettent d’instaurer un point de vue privilégié de l’Occident sur l’Orient. Avec le Web 2.0 et les technologies mobiles, le partage d’images fait partie intégrale de notre quotidien et celles-ci nous proviennent de partout et de n’importe qui. En considérant que l’Orientalisme est indissociable des techniques modernes de représentation du monde (Mitchell 2013), le présent mémoire souhaite interroger l’impact de ces nouvelles technologies sur la production, la circulation et la réception des images du dit Orient. Nous concentrerons notre étude sur les images captées et partagées depuis les manifestations de la Révolution verte iranienne de juin 2009, entre autres la vidéo de l’assassinat de la jeune Neda Agha Soltan qui a fait la une des médias occidentaux. En prenant comme base les écrits d’Edward Saïd, que nous réviserons par le biais de lectures féministes, nous verrons que l’Orientalisme visuel mute au rythme des changements politiques, culturels et technologiques qu’il rencontre. En plus d’éclairer les images de notre corpus, la question féministe nous permettra d’élargir la définition et les mécanismes de l’Orientalisme proposés par Saïd. Nous démontrerons que tout en ayant le potentiel de bouleverser l’image que construit l’Occident de l’Orient, le Web 2.0 actualise aussi l’Orientalisme visuel sous de nouveaux modes de production du savoir.
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Ce mémoire cherche à créer un dialogue entre les domaines de recherche du livre d’images et celui de recherches sur la paix afin d’exposer les différentes formes et fonctions des livres d’images pour la paix. Questionnant le pourquoi et le comment de ces œuvres, ce travail expose la façon et la manière avec lesquelles ces dernières contribuent à « l’alphabétisation de la paix » auprès des enfants et comment elles les motivent à agir en fonction de la paix. Les livres d’images constituent un média idéal pour éduquer les enfants à la paix. Très tôt dans le processus de socialisation, ces livres sauront transmettre et inculquer des concepts et aptitudes clefs et éventuellement ancrer dans l’esprit de l’enfant les valeurs d’une culture de la paix. Au centre de cette recherche est exposé le thème de la paix tel que traité à travers les œuvres de l’écrivaine autrichienne Mira Lobe (1913–1995). Par l’analyse de sept livres d’images pour la paix, ce travail explique quelles stratégies et méthodes littéraires, pédagogiques, sémiotiques, narratives et esthétiques sont employées par l’auteure pour réussir à bien présenter et à traiter de sujets politiques complexes et d’enjeux sociaux et humains parfois délicats et tabous à un jeune auditoire. Il montre également par quels moyens ces œuvres font naître l’empathie, une aversion pour la violence et comment elles pourront finalement amener les enfants à opter pour l’acte de la paix. En joignant et en mettant en relation les résultats et conclusions des deux champs de recherche observés dans ce travail, soit l’éducation à la paix et la recherche sur des livres d’images, il devient possible de démontrer comment Mira Lobe apporte, avec ses livres d’images pour la paix, une contribution universelle et intemporelle à l’éducation à la paix.
Resumo:
Nous exposons dans ce mémoire les principes qui fondent, au sein de la discipline des études cinématographiques, une conception théorique de la réception d’images animées reposant sur la modalité de consommation spécifique du cinéma en salle. Notre analyse d’un ensemble représentatif d’approches théoriques et historiographiques de l’expérience cinématographique permet de relever les principes qui orientent la conception de différentes formes de médialité conférées à l’expérience du cinéma en salle. Les théories du dispositif et du signifiant imaginaire de Jean-Louis Baudry et Christian Metz proposent une conception de l’expérience du cinéma en salle qui met l’accent sur les effets de transparence médiatique de certaines composantes des salles de cinéma sur les spectateurs ainsi que sur le caractère imaginaire, symbolique et institutionnel de ces médiations. La sémio-pragmatique de Roger Odin et l’approche historiographique de la New Cinema History telle que présentée par Robert C. Allen et Richard Maltby proposent une conception de l’opacité médiatique de l’ensemble complexe des effets de médiation sensorielle, relationnelle, sociale et économique de l’expérience du cinéma en salle et dont les spectateurs font l’épreuve sur toute l’étendue de ce type de site d’exploitation et sur toute la durée de son occupation spectatorielle. Au terme de notre analyse, les différents principes relevés permettent de formuler la notion d’expérience hétérotopique du cinéma pour désigner la conception de l’expérience du cinéma en salle qui caractérise la compréhension de la réception d’images animées dans le cadre des études cinématographiques.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Le gène par-4 code pour une kinase à sérine/thréonine très conservée qui régule la polarisation précoce et la division cellulaire asymétrique de l’embryon de C. elegans. Une mutation de par-4 entraîne la létalité embryonnaire en perturbant trois processus: la ségrégation asymétrique des déterminants cellulaires, la régulation asynchrone de la progression du cycle cellulaire et la contractilité du réseau d’actomyosine. Pour identifier des régulateurs des voies de signalisation de PAR-4, nous avons procédé à un criblage pour des suppresseurs de la létalité embryonnaire associée à une mutation de par-4. Nous avons identifié 6 gènes qui codent pour des homologues conservés avec des activités définies telles que la phosphorylation, l’ubiquitination, la protéolyse et l’échafaudage. En employant l’imagerie quantitative pour suivre des événements cellulaires dépendants de PAR-4, nous avons déterminé quels processus sont contrôlés par chaque suppresseur durant le développement embryonnaire de C. elegans. Des analyses moléculaires de ces suppresseurs ont révélé des détails sur le mécanisme par lequel PAR-4 régule la polarisation cellulaire et promeut la division cellulaire asymétrique.
Resumo:
Présentation: Cet article a été publié dans le journal : Computerised medical imaging and graphics (CMIG). Le but de cet article est de recaler les vertèbres extraites à partir d’images RM avec des vertèbres extraites à partir d’images RX pour des patients scoliotiques, en tenant compte des déformations non-rigides due au changement de posture entre ces deux modalités. À ces fins, une méthode de recalage à l’aide d’un modèle articulé est proposée. Cette méthode a été comparée avec un recalage rigide en calculant l’erreur sur des points de repère, ainsi qu’en calculant la différence entre l’angle de Cobb avant et après recalage. Une validation additionelle de la méthode de recalage présentée ici se trouve dans l’annexe A. Ce travail servira de première étape dans la fusion des images RM, RX et TP du tronc complet. Donc, cet article vérifie l’hypothèse 1 décrite dans la section 3.2.1.
Resumo:
Ce mémoire s’intéresse à l’écriture du voyage et du déplacement à travers l’exemple de cinq récits québécois contemporains. Nous étudions ici Voyage en Irlande avec un parapluie et Voyage au Portugal avec un Allemand de Louis Gauthier, Vers l’Ouest de Mahigan Lepage, Dix jours en cargo d’Isabelle Miron ainsi que Le sermon aux poissons de Patrice Lessard. Constatant que les voyages contemporains se sont délestés de l’expérience de l’exotisme et de la découverte, nous faisons l’hypothèse que l’écriture du déplacement se transforme. Nous analysons comment une expérience dysphorique du déplacement s’inscrit dans la description des lieux, la mise en récit et l’identité des narrateurs. À partir des travaux de Michel de Certeau (L’invention du quotidien) et de Marc Augé (Non-lieux : introduction à la surmodernité), nous nous intéressons, dans un premier chapitre, à la perception des lieux et à leur description. Notre parcours nous amène ensuite à examiner plus directement les modalités par lesquelles ces récits de la route produisent une continuité, métaphorique notamment. La troisième partie se concentre sur l’identité des narrateurs, qui tend à se construire ou à se déconstruire par rapport aux espaces qu’il parcourent. En nous servant des analyses d’images de Georges Didi-Huberman, nous examinons en conclusion comment ces différents aspects des textes produisent une « esthétique de la délocalisation », où les paysages et les lieux se constituent en écrans sur lesquels il est désormais possible de se projeter.
Resumo:
Cette thèse trace la généalogie culturelle de la jeune fille en Occident en ciblant les moments charnières de son devenir femme au sein de structures de savoir qui ont activement participé à forger cette figure hétéronormative. Mon objectif est de produire une analyse culturelle en forgeant une cartographie des adolescences au féminin. Afin de sortir de la temporalité téléologique de la virginité et de la défloration, j’emprunte un mot étranger, parthénos, qui fait appel à l’idée de la jeune fille, sans nécessairement se limiter à ses connotations conventionnelles. La première partie, intitulée « La virginité, une affaire de jeunes filles », laisse place à une analyse du concept de parthénos à partir d’une lecture au carrefour de la médecine, de la loi et du mythe. Une lecture du traité hippocratique De la maladie des jeunes filles dévoile comment la défloration et la grossesse deviennent une cure érotique, une discipline du corps, qui décide du passage de la jeune fille dans une temporalité utile à la Cité. Un déplacement paradigmatique s’opère au 19e siècle dans les écrits médico-légaux, parce que l’hymen, auparavant inexistant dans la doxa hippocratique, devient le signe matériel par excellence pour examiner le statut de virginité de la fille. L’analyse de ces traités (frères Beck, Ambroise Tardieu, Paulier et Hétet) révèle la configuration de pratiques et de discours d’infantilisation des victimes de viol, et le refus des médecins légistes de reconnaître qu’une femme mariée puisse être violée. À partir d’une lecture contemporaine des tragédies L’Orestie d’Eschyle et Antigone de Sophocle, je montre que les figures d’Antigone et d’Électre constituent des exemples et des symboles convaincants de ce destin funeste de la parthénos qui n’accède jamais au statut de femme mariée. À ces figures mortelles, se télescopent les figures d’Artémis et des Érinyes pour montrer le potentiel de régénération inhérent à la figure de la parthénos. La deuxième partie, qui porte le titre « Le liminaire. Repenser les devenirs de l’adolescence », engage une réflexion à la lisière du contexte contemporain des Girlhood Studies, de la psychanalyse sociale et des études féministes sur le corps et le sexe, pour faciliter le déploiement d’une cartographie plus contextualisée du concept de parthénos. Je montre ici les écueils et les effets du danger qu’engendre la rationalité économique (cf. Henry A. Giroux) pour les espaces de liberté et d’exploration propres à l’adolescence. Cette posture est appuyée sur une lecture des récentes études en psychanalyse sociale (Anne Bourgain, Olivier Douville et Edmond Ortigues). Il est ainsi question d’identifier ce qui marque le passage entre l’adolescence et l’âge adulte : la crainte de la disparition et le fantasme de la naissance de soi. La théorie de la volatilité corporelle qu’élabore Elizabeth Grosz à propos de la sexualité féminine, ainsi que les théories de Michel Foucault, reprises par Judith Butler, en ce qui concerne les disciplines du corps, répondent à mon objectif de sortir de l’écueil d’une temporalité téléologique pour saisir les effets et les ramifications du discours sur la matérialité du corps de la jeune fille, sur ce qui lui arrive lorsqu’elle ne correspond pas tout à fait à l’idéal de régulation. Enfin, la dernière partie, qui porte le titre « Temporalités de la parthénos en tant que sujet liminaire », est traversée par les modalités particulières de la parthénia qui semble désincarnée dans la littérature contemporaine. L’objectif est de prouver que la virginité est toujours un marqueur symbolique qui déploie le destin de la fille dans un horizon particulier, trop souvent celui de la disparition. En proposant un éventail de cinq textes littéraires que j’inscris au sein d’une posture généalogique, je souhaite voir dans la littérature contemporaine, une volonté, parfois aussi un échec, dans cette pensée de la parthénos en tant que sujet liminaire. Le récit Vu du ciel de Christine Angot montre que l’ascension vers le statut d’ange concerne seulement les victimes enfants. Le récit d’Angot met donc en lumière la distinction entre la vraie victime, toujours innocente et pré-pubère, et la fausse victime, l’adolescente. Contrairement à Vu du ciel, The Lovely Bones d’Alice Sebold met en scène la possibilité d’une communauté politique de filles qui sera en fait limitée par le refus du potentiel lesbien. La question du viol sera ici centrale et sera abordée à partir de l’insistance sur la voix de la narratrice Susan. La littérature devient un espace propice à la survie de la jeune fille, puisqu’elle admet la reprise de l’expérience de la première relation sexuelle. Si la communauté est convoquée dans The Lovely Bones, elle est associée à l’image de l’identité sororale dans le roman Virgin Suicides de Jeffrey Eugenides. La pathologie virale et la beauté virginale que construit le narrateur polyphonique et anonyme font exister le discours médical sur la maladie des vierges dans un contexte contemporain. Le récit médical rejoint alors le récit érotique puisque le narrateur devient médecin, détective et voyeur. À la différence de ces trois récits, Drames de princesses d’Elfriede Jelinek montre une parthénos, Blanche Neige, qui fait face à son agresseur pour s’inscrire dans une historicité discursive. Cette collision dialogique ranime le cycle tragique (celui d’une Antigone confrontant Créon) et traduit de nouveau le danger d’une superstructure sociétale composée d’images et de discours où la fille est construite comme un accessoire pour le plaisir éphémère de l’homme. À l’inverse de l’image de la vierge sacrée et désincarnée que proposent les récits d’Angot, de Sebold, d’Eugenides et de Jelinek, Virginie Despentes offre une autre réflexion dans Apocalypse bébé. Le personnage de Valentine est configuré comme une sœur des parthénoi qui préfère le suicide et la terreur à la domestication, faisant ainsi appel à une temporalité radicale et inachevable, celle de la fin de la jeune fille. Mon souhait est enfin de souligner la nécessité de penser au mérite autant épistémologique, intime que politique, d’explorer le temps des éclosions sexuelles de la fille par delà l’idée de la première relation sexuelle.
Resumo:
Compte rendu de l'album « Récits d'Ellis Island : histoires d'errance et d'espoir » (POL, 1994).
Resumo:
L’oeuvre d’Ollivier présente plusieurs caractéristiques pouvant être qualifiées de « baroques ». Cette étude examine le rôle que jouent les personnages féminins dans la construction du baroque dans « Mère-Solitude » et « Les urnes scellées ». Par ailleurs, pour mieux évaluer l’évolution de l’esthétique du roman haïtien telle qu’elle se manifeste dans ce baroque chez Ollivier, cette lecture cherche à faire ressortir l’écart qui se manifeste par rapport à la représentation du personnage féminin dans l’esthétique du réalisme merveilleux. Ainsi apparaît-il que le féminin participe à l’élaboration d’un univers imaginaire déchiffrable, sensé et porteur d’espoir, dans le réalisme merveilleux, alors que le baroque crée des « urnes scellées » impénétrables à travers lesquelles s’exprime l’angoisse devant l’inconstance du monde, un monde insaisissable, insensé. Le baroque apparaît alors, chez Ollivier, comme une esthétique de l’incertain et du questionnement qui déconstruit les discours rassurants par une technique de fabrication d’images incongruës.