287 resultados para Langue (de l’) autre
Resumo:
Perception et virtuel; les deux termes qui composent le titre de ces pages peuvent sembler dans un premier temps les membres d'une opposition ne trouvant aucune synthèse. D'une part il y aurait la matérialité concrète de la perception, clé de tout rapport que nous pouvons avoir avec le monde; de l'autre l'abstraction, l'immatérialité, la fatuité du virtuel. On pourrait penser que si la perception rend touchable l'intouchable, le virtuel, tout au contraire, rend intouchable le touchable. Mais à bien considérer ces deux termes, s'ils sont membres d'une polarité, ils le sont à la façon de deux aimants qui se repoussent d'un côté, et s'attirent de l'autre. Le but de mon discours sera de jouer avec ces deux mots afin d'approfondir leur structure et de prendre en compte leurs croisements, leurs entrelacements, leur chiasme.
Resumo:
L’objectif de ce mémoire est de porter un regard critique sur l’exposition du patrimoine culturel immatériel kanak, dernièrement proposée au musée du quai Branly. Ayant pour objet de corriger l’élitisme de l’eurocentrisme, le postcolonialisme est un courant de pensée qui vise à repositionner les acteurs et enjeux marginaux. Interdisciplinaire, le discours postcolonial suscite une pluralité de perspectives pour inclure la voix des « autres ». Dans notre étude, nous choisissons de traiter du propos dans un cadre singulier. Notre approche se consacrera à l’interprétation de l’ « autre » par le musée du quai Branly, de manière à comprendre comment, aujourd’hui, la particularité du patrimoine culturel kanak y est exposée. Ce mémoire se propose d’effectuer un retour sur la venue du quai Branly dans le cadre de quelques problèmes récurrents concernant la perception et le traitement de l’objet nonoccidental, retour qui semble nécessaire à l’établissement d’un bilan sur les pratiques expositionnelles du patrimoine culturel immatériel dans l’exposition « Kanak. L’art est une parole ». Pour ce faire, les enjeux soulevés seront abordés dans les perspectives de l’histoire de l’art, de l’anthropologie et de la muséologie. Par la muséographie qu’il met en place, le musée fait part au public de son parti-pris quant au discours didactique qu’il souhaite lui transmettre. Les choix effectués pour la mise en exposition et sa contextualisation expriment la définition que le musée donne aux objets qu’il contient. Le musée du quai Branly est un cas particulier. Promu au rang de musée d’ « art premier » à son ouverture, il expose des objets ethnographiques venus d’Afrique, d’Océanie, des Amériques ou encore d’Asie pour leurs qualités esthétiques. Loin de nos préceptes occidentaux, la difficulté de ce musée est de rendre compte de l’histoire de ces objets. L’exemple de l’expression artistique kanak soulève le fond du problème dans la mesure où elle prend forme à travers des ressources orales.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Alice au pays des merveilles et Nietzsche n'ont en commun ni la dentelle ni la chanson. Quelque chose de beaucoup plus fort les unit toutefois; nous le découvrirons peut-être ce jour où voleront les cochons. Ou à la fin de cette pièce, selon le bon vouloir des principaux-ales intéressé-e-s. Pendant ce temps, du fin fond de leur enclos, ils et elles n'en peuvent plus d'attendre. Leur salut ? L'heure du glas ? Leur heure de gloire ? Grands incapables, pugilistes décadents qui se tuent à ne pas se tuer, se déchaînent dans le verbiage, s'érigeant malgré eux contre toute forme de verve. Combattre cet Autre qui s'immisce insidieusement en soi et qui conduit à la perte du moi. C'est dans une folle lucidité que les égos se dérangent sans échanger, s'attaquent sans s'atteindre, hurlent sans être entendus, dans l'espoir, peut-être, de se réveiller in the land of Nod. Comme l’indique le titre, Chroniques de maux (de l’extrême ordinaire) met en scène une suite de chroniques dans lesquelles les principaux-ales intéressé-e-s témoignent de leur mal-être, et ce, à travers l’exploration de lieux communs. La dramaturgie tente, entre autres, de mettre en place une poésie de l’invective et de l’humour; une esthétique du trash-talking et de la logorrhée. Une importance particulière est accordée au rythme et au langage. L’atmosphère alterne résolument lourdeur et ludisme. La pièce Rouge Gueule, d'Étienne Lepage, présente une mécanique visant manifestement à « attaquer » l'Autre, qu’il s’agisse d’un personnage ou du lecteur-spectateur. Les attaques se perpètrent d'une part par un humour cru, influencé par la culture populaire, le trivial; un humour qui fonctionne de manière plutôt classique en convoquant des procédés aisément repérables et sans cesse réutilisés par l'auteur. D’autre part, la mécanique de « combat » se manifeste par l'invective, ainsi que par une violence caractérisée, du début à la fin, par un manque dans la motivation des actions. Ainsi, l’étude Attaques à vide. Bousculer la situation théâtrale au confluent de l’humour et la violence s’intéresse à Rouge Gueule, aux relations qu'entretiennent l’humour et l'univers brutal de la pièce, dans la perspective où l’humour est inextricablement lié à la violence. Une attention particulière est portée sur le personnage type de Lepage de même que sur l’esthétique de « l'arsenal » trash. Cette dernière est analysée afin de mieux circonscrire les attaques : sont-elles des moyens, et le cas échéant, pour parvenir à quelle fin puisque la fable, et donc la « quête », dans le théâtre contemporain est souvent remise en question. Cette étude verra comment les attaques « à vide », sont, chez Lepage, la force motrice de ce que Hans-Thies Lehmann nomme la « situation théâtrale ».
Resumo:
L'objectif de cette recherche est de réfléchir à la notion de vrai dans l'économie discursive du témoignage. C'est-à-dire que ce mémoire se concentre sur le rapport entre le discours critique et académique d'une part, et le discours littéraire de l'autre. Une première partie s'attache à délimiter les contours de du problème, à partir notamment des notions de de vrai et de vraisemblable. Une étude comparative permet d'introduire trois auteurs qui serviront d'exemple tout au long de la recherche: Primo Levi, Jorge Semprun, et Charlotte Delbo. On fait un bref survol de l'évolution des deux économies discursives depuis les tout premiers témoignages (années 40-50) jusqu'au tournant narratif symbolisé par le procès Eichmann. Cela correspond aussi à la parution d'un témoignage à part: Le sang du ciel, de Piotr Rawicz. La seconde partie est un état de la question sur le roman de Rawicz. Comment le fait qu'il s'agisse d'une fiction, notamment, a été discuté par la critique et dans les contributions universitaires qui lui sont consacrées. Cette incursion dans l'herméneutique nous permet d'identifier trois vagues critiques distinctes, selon les époques et les pays. Enfin, la dernière partie s'attache à montrer que Le sang du ciel est un témoignage pensé comme un projet esthétique, dont la modernité ne cède pas à la facilité du refus de dire de quoi on parle, mais qui au contraire pose des questions de son temps et ose aborder les sujets que l'on doit taire selon la doxa.
Resumo:
Dans le domaine des drogues actuellement illicites, deux courants politiques opposés s'affrontent: un mouvement en faveur de la répression fait face à ce que l'on nomme bien souvent l'anti-prohibitionnisme. Comment, à partir de la réalité actuelle, en arrive-t-on à prendre des positions tellement opposées? L'objectif de cet article consiste à analyser les valeurs dominantes qui sont à la base de chacun de ces discours. La méthode privilégiée pour atteindre cet objectif consiste en une recension des écrits scientifiques des 20 dernières années. Quatre bases de données furent consultées: NCJRS, Socio-file, Psyclitt, et Current Content. De cette interrogation, 200 textes furent retenus pour analyse. L'analyse des écrits scientifiques traitant des politiques répressives envers les drogues et de la position anti-prohibitionniste a permis de faire ressortir trois valeurs principales: la gestion optimale des ressources humaines et sociales, la promotion et la santé, et la liberté individuelle vs la protection de l'état. Ces valeurs ne sont pas mutuellement exclusives puisque certaines idées invoquées en vue de justifier la position défendue peuvent s'appliquer à l'une ou l'autre des valeurs identifiées, démontrant combien ceux-ci sont fortement inter-reliées. Enfin, mentionnons que l'ensemble de ces écrits sur le thème étudié présente des faiblesses majeures - elles sont discutées en conclusion.
Resumo:
Diverses méthodes ont été utilisées pour étudier les étoiles Wolf-Rayet (WR) dans le but de comprendre les phénomènes physiques variés qui prennent place dans leur vent dense. Pour étudier la variabilité qui n'est pas strictement périodique et ayant des caractéristiques différentes d'une époque à l'autre, il faut observer pendant des périodes de temps suffisamment longues en adopter un échantillonnage temporel élevé pour être en mesure d'identifier les phénomènes physiques sous-jacents. À l'été 2013, des astronomes professionnels et amateurs du monde entier ont contribué à une campagne d'observation de 4 mois, principalement en spectroscopie, mais aussi en photométrie, polarimétrie et en interférométrie, pour observer les 3 premières étoiles Wolf-Rayet découvertes: WR 134 (WN6b), WR 135 (WC8) et WR 137 (WC7pd + O9). Chacune de ces étoiles est intéressante à sa manière, chacune présentant une variété différente de structures dans son vent. Les données spectroscopiques de cette campagne ont été réduites et analysées pour l'étoile présumée simple WR 134 pour mieux comprendre le comportement de sa variabilité périodique à long terme dans le cadre d'une étude des régions d'interactions en corotation (CIRs) qui se retrouvent dans son vent. Les résultats de cette étude sont présentés dans ce mémoire.
Resumo:
« Le Survenant » et « Bonheur d'occasion » mettent en place des univers référentiels complètement étrangers : au-delà des seuls décors de l'action, les référents métaphoriques structurent des espaces étanches l'un à l'autre, la ville et la campagne. L'exemple le plus patent en est sans doute cette visite à la campagne effectuée par la famille Lacasse où les scènes rurales sont décrites à travers l'expérience urbaine des personnages. Est-ce à dire que ces deux romans ne participeraient pas vraiment à un même récit commun ou que tout au moins ils relèveraient de paradigmes spatiaux incompatibles ? L'auteure ne le croit pas. Elle propose donc d'examiner de plus près la structuration de l'espace des romans en faisant l'hypothèse que la stabilité — et l'autarcie — des univers référentiels tient au contrepoint du « vaste monde » que chacune des oeuvres élabore à sa façon, Germaine Guèvremont faisant du port de Sorel et des lieux visités par le Survenant un espace infini relié dialectiquement au Chenal du Moine, alors que le Saint-Henri de Gabrielle Roy est tendu vers les vieux pays, là où se dévoile la guerre. Le « vaste monde » pourrait donc être cette médiation par laquelle les deux oeuvres se rejoignent dans une commune structuration de l'espace.
Resumo:
Objectif: Cette thèse avait pour objectif principal la mise en oeuvre et la validation de la faisabilité, chez l'humain, du paradigme de modulation du réflexe acoustique de sursaut par un court silence (GPIAS) afin de l'utiliser comme mesure objective de l'acouphène. Pour ce faire, trois expériences ont été réalisées. L'expérience 1 avait pour objectif de valider l'inhibition du réflexe de sursaut par un court silence chez des participants humains normo-entendants (sans acouphène) lors de la présentation d'un bruit de fond centré en hautes et en basses fréquences afin de déterminer les paramètres optimaux du paradigme. L'expérience 2 avait pour objectif de valider la précision et la fidélité d'une méthode de caractérisation psychoacoustique de l'acouphène (appariement en intensité et en fréquence). Finalement, l'expérience 3 avait pour objectif d'appliquer le paradigme d'objectivation de l'acouphène par le réflexe de sursaut à des participants atteints d'acouphènes chroniques en utilisant les techniques développées lors des expériences 1 et 2. Méthodologie : L'expérience 1 incluait 157 participants testés dans l'une des conditions de durée du court silence (5, 25, 50, 100, 200 ms) et dans l'un des deux paradigmes (court silence à l'intérieur du bruit de fond ou suivant celui-ci) à l'aide de bruits de fond en hautes et en basses fréquences. L'expérience 2 incluait deux groupes de participants avec acouphène, l'un musicien (n=16) et l'autre sans expérience musicale (n=16) ainsi qu'un groupe de simulateur sans acouphène (n=18). Ils tous ont été évalués sur leur capacité d'appariement en fréquence et en intensité de leur acouphène. Les mesures ont été reprises chez un sous-groupe de participants plusieurs semaines plus tard. L'expérience 3 incluait 15 participants avec acouphène et 17 contrôles évalués à l'aide du paradigme d'inhibition du réflexe de sursaut à l'aide d'un court silence (GPIAS). Les paramètres psychoacoustiques de l'acouphène ont également été mesurés. Toutes les mesures ont été reprises plusieurs mois plus tard chez un sous-groupe de participants. Résultats : Expérience 1 : le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence est applicable chez l'humain normo-entendant. Expérience 2 : les mesures psychoacoustiques informatisées de l'acouphène incluant l'appariement en fréquence et en intensité sont des mesures précises et fidèles du percept de l'acouphène. Expérience 3 : un déficit d'inhibition au paradigme du GPIAS a été retrouvé chez le groupe de participants avec acouphène pour les bruits de fond en hautes et en basses fréquences au test et au retest. Les mesures d'appariement en fréquence ont révélé un acouphène dont la fréquence prédominante était d'environ 16 000 Hz chez la plupart des participants. Discussion : Il est possible d'appliquer le paradigme d'inhibition du réflexe acoustique de sursaut par un court silence à des participants humains atteints d'acouphène, tel qu'il est utilisé en recherche animale pour « objectiver » la présence d'acouphène. Toutefois, le déficit d'inhibition mesuré n'est pas spécifique à la fréquence de l'acouphène lorsque validé à partir des données d'appariement psychoacoustique. Nos résultats soulèvent des questions quant à l'interprétation originale du paradigme pour détecter la présence d'un acouphène chez les animaux.
Resumo:
Le présent mémoire se donne pour fin d'étudier, en les replaçant au sein du contexte politique de leur époque, deux textes importants de la pensée politique de Justinien : l'Ekthesis d'Agapète le diacre, et le Dialogue de science politique. Ces deux textes représentent le point de vue de deux groupes d'acceptation de Constantinople – à savoir des groupes qui peuvent participer à l’élévation ou à la destitution d’un empereur : le clergé, et l'élite des sénateurs et des hauts-fonctionnaires. À partir de ce cadre conceptuel, il s'agira, pour ce mémoire, de définir les problématiques ayant trait à la fonction et la conception du pouvoir impérial et à la forme de l'État, telles que les présentent ces deux textes. À terme, devra émerger comme cadre interprétatif l'affrontement de deux tendances: d'une part, un hellénisme politique christianisé (associé au clergé), et, d'autre part, une romanité conjuguée à une vision néoplatonicienne du monde (associée à l'élite sénatoriale et fonctionnaire). Ces deux traditions posent des questions différentes. D'un côté, celle de l'orthodoxie de l'empereur et de la nécessité, pour ce dernier, de suivre les préceptes de l'éthique chrétienne, de se montrer digne de Dieu, dont il est le serviteur; de l'autre, celle de la sauvegarde de l'héritage romain, portant notamment sur le rôle du Sénat et l’importance de la loi, de même que le lien entre empereur et philosophe.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Critique de la pièce de théâtre « Ne blâmez jamais les Bédouins » de René-Daniel Dubois (spectacle solo; texte et interprétation : René-Daniel Dubois; mise en scène et scénographie : Joseph Saint Gelais. Spectacle des Productions Nero Strassenbahn Endstation.)
Resumo:
Contrairement à Charles Bovary, qui n'en avait qu'une, je me coiffe, selon les circonstances de ma vie professionnelle, tantôt de ma casquette de dix-huitiémiste, tantôt de ma casquette d'épistologue (suivant le mot créé par Michel Pierssens). C'est à ce double titre que je veux livrer quelques réflexions sur les rapports de la sociologie de la littérature et de la sociocritique. L'on verra que les problèmes soulevés et les irritants exposés ne sont pas exactement identiques dans un domaine et dans l'autre, même s'ils renvoient à une seule volonté – lire des textes dans leur inscription sociale –, et que m'intéressent beaucoup plus les lectures in situ que les théorisations in vitro.
Resumo:
L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.