592 resultados para Mélanges binaires
Resumo:
Introduction: Au Canada, le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes et le plus mortel après les cancers du poumon et du côlon. Il y a place à optimiser le traitement du cancer de la prostate de manière à mettre en œuvre une médecine personnalisée qui s’adapte aux caractéristiques de la maladie de chaque patient de façon individuelle. Dans ce mémoire, nous avons évalué la réponse aux dommages de l’ADN (RDA) comme biomarqueur potentiel du cancer de la prostate. Les lésions potentiellement oncogènes de l'ADN déclenche une cascade de signalisation favorisant la réparation de l'ADN et l’activation des points de contrôle du cycle cellulaire pour préserver l’intégrité du génome. La RDA est un mécanisme central de suppression tumorale chez l’homme. La RDA joue un rôle important dans l’arrêt de la prolifération des cellules dont les génomes sont compromis, et donc, prévient la progression du cancer en agissant comme une barrière. Cette réponse cellulaire détermine également comment les cellules normales et cancéreuses réagissent aux agents utilisés pour endommager l'ADN lors du traitement du cancer comme la radiothérapie ou la chimiothérapie, en plus la présence d,un certain niveau de RDA dans les cellules du cancer de la prostate peuvent également influer sur l'issue de ces traitements. L’activation des signaux de la RDA peut agir comme un frein au cancer dans plusieurs lésions pré-néoplasiques de l'homme, y compris le cancer de la prostate. Il a été démontré que la RDA est augmentée dans les cellules de néoplasie intra- épithéliale (PIN) comparativement aux cellules prostatiques normales. Toutefois, le devient de la RDA entre le PIN et l’adénocarcinome est encore mal documenté et aucune corrélation n'a été réalisée avec les données cliniques des patients. Notre hypothèse est que les niveaux d’activation de la RDA seront variables selon les différents grades et agressivité du cancer de la prostate. Ces niveaux pourront être corrélés et possiblement prédire les réponses cliniques aux traitements des patients et aider à définir une stratégie plus efficace et de nouveaux biomarqueurs pour prédire les résultats du traitement et personnaliser les traitements en conséquence. Nos objectifs sont de caractériser l'activation de la RDA dans le carcinome de la prostate et corréler ses données avec les résultats cliniques. Méthodes : Nous avons utilisé des micro-étalages de tissus (tissue microarrays- TMAs) de 300 patients ayant subi une prostatectomie radicale pour un cancer de la prostate et déterminé le niveau d’expression de protéines de RDA dans le compartiment stromal et épithélial des tissus normaux et cancéreux. Les niveaux d’expression de 53BP1, p-H2AX, p65 et p-CHK2 ont été quantifiés par immunofluorescence (IF) et par un logiciel automatisé. Ces marqueurs de RDA ont d’abord été validés sur des TMAs-cellule constitués de cellules de fibroblastes normales ou irradiées (pour induire une activation du RDA). Les données ont été quantifiées à l'aide de couches binaires couramment utilisées pour classer les pixels d'une image pour que l’analyse se fasse de manière indépendante permettant la détection de plusieurs régions morphologiques tels que le noyau, l'épithélium et le stroma. Des opérations arithmétiques ont ensuite été réalisées pour obtenir des valeurs correspondant à l'activation de la RDA qui ont ensuite été corrélées à la récidive biochimique et l'apparition de métastases osseuses. Résultats : De faibles niveaux d'expression de la protéine p65 dans le compartiment nucléaire épithélial du tissu normal de la prostate sont associés à un faible risque de récidive biochimique. Par ailleurs, nous avons aussi observé que de faibles niveaux d'expression de la protéine 53BP1 dans le compartiment nucléaire épithéliale du tissu prostatique normal et cancéreux ont été associés à une plus faible incidence de métastases osseuses. Conclusion: Ces résultats confirment que p65 a une valeur pronostique chez les patients présentant un adénocarcinome de la prostate. Ces résultats suggèrent également que le marqueur 53BP1 peut aussi avoir une valeur pronostique chez les patients avec le cancer de la prostate. La validation d'autres marqueurs de RDA pourront également être corrélés aux résultats cliniques. De plus, avec un suivi des patients plus long, il se peut que ces résultats se traduisent par une corrélation avec la survie. Les niveaux d'activité de la RDA pourront éventuellement être utilisés en clinique dans le cadre du profil du patient comme le sont actuellement l’antigène prostatique spécifique (APS) ou le Gleason afin de personnaliser le traitement.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Resumo:
Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Les westerns de l’âge d’or étasunien (1948-1962) mettent en scène un "gender trouble" en créant des personnages de femmes et d’hommes qui empruntent les uns et les autres aux caractéristiques genrées associées par la société nord-américaine et occidentale en général aux genres binaires du féminin et du masculin. Ce trouble genré se développe entre autres par la volonté de trois hommes de recréer la cellule familiale nucléaire conventionnelle dans "Red River" (1948) de Howard Hawks, par le rapport de peur et d’oppression du groupe social sur les individus dans "High Noon" (1952) de Fred Zinnemann et "Johnny Guitar" (1954) de Nicholas Ray, ainsi que par la rencontre opposant l’homme de l’Est et l’homme de l’Ouest dont les idéologies et les valeurs divergent dans "The Man Who Shot Liberty Valance" (1962) de John Ford.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Les nanoparticules (NPs) de polymère ont montré des résultats prometteurs pour leur utilisation comme système de transport de médicaments pour une libération contrôlée du médicament, ainsi que pour du ciblage. La biodisponibilité des médicaments administrés oralement pourrait être limitée par un processus de sécrétion intestinale, qui pourrait par la suite être concilié par la glycoprotéine P (P-gp). La dispersion de la Famotidine (modèle de médicament) à l’intérieur des nanoparticules (NPs) pegylées a été évaluée afin d’augmenter la biodisponibilité avec du polyéthylène glycol (PEG), qui est connu comme un inhibiteur de P-gp. L’hypothèse de cette étude est que l’encapsulation de la Famotidine (un substrat de P-gp) à l’intérieur des NPs préparées à partir de PEG-g-PLA pourrait inhiber la fonction P-gp. La première partie de cette étude avait pour but de synthétiser quatre copolymères de PEG greffés sur un acide polylactide (PLA) et sur un squelette de polymère (PLA-g-PEG), avec des ratios de 1% et 5% (ratio molaire de PEG vs acide lactique monomère) de soit 750, soit 2000 Da de masse moléculaire. Ces polymères ont été employés afin de préparer des NPs chargés de Famotidine qui possède une faible perméabilité et une solubilité aqueuse relativement basse. Les NPs préparées ont été analysées pour leur principaux paramètres physicochimiques tels que la taille et la distribution de la taille, la charge de surface (Potentiel Zeta), la morphologie, l’efficacité d’encapsulation, le pourcentage résiduel en alcool polyvinylique (PVA) adsorbé à la surface des NPs, les propriétés thermiques, la structure cristalline et la libération du médicament. De même, les formules de NPs ont été testées in vitro sur des cellules CaCo-2 afin dʼévaluer la perméabilité bidirectionnelle de la Famotidine. Généralement, les NPs préparées à partir de polymères greffés PLA-g-5%PEG ont montré une augmentation de la perméabilité du médicament, ce par l’inhibition de l’efflux de P-gp de la Famotidine dans le modèle CaCo-2 in vitro. Les résultats ont montré une baisse significative de la sécrétion de la Famotidine de la membrane basolatéral à apical lorsque la Famotidine était encapsulée dans des NPs préparées à partir de greffes de 5% PEG de 750 ou 2000 Da, de même que pour d’autres combinaisons de mélanges physiques contenant du PEG5%. La deuxième partie de cette étude est à propos de ces NPs chargées qui démontrent des résultats prometteurs en termes de perméabilité et d’inhibition d’efflux de P-gp, et qui ont été choises pour développer une forme orale solide. La granulation sèche a été employée pour densifier les NPs, afin de développer des comprimés des deux formules sélectionnées de NPs. Les comprimés à base de NPs ont démontré un temps de désintégration rapide (moins d’une minute) et une libération similaire à la Famotidine trouvée sur le marché. Les résultats de l’étude du transport de comprimés à base de NPs étaient cohérents avec les résultats des formules de NPs en termes d’inhibition de P-gp, ce qui explique pourquoi le processus de fabrication du comprimé n’a pas eu d’effet sur les NPs. Mis ensemble, ces résultats montrent que l’encapsulation dans une NP de polymère pegylé pourrait être une stratégie prometteuse pour l’amélioration de la biodisponibilité des substrats de P-gp.
Resumo:
Les nanomatériaux sont une classe de contaminants qui est de plus en plus présent dans l’environnement. Leur impact sur l’environnement dépendra de leur persistance, mobilité, toxicité et bioaccumulation. Chacun de ces paramètres dépendra de leur comportement physicochimique dans les eaux naturelles (i.e. dissolution et agglomération). L’objectif de cette étude est de comprendre l’agglomération et l’hétéroagglomération des nanoparticules d’argent dans l’environnement. Deux différentes sortes de nanoparticules d’argent (nAg; avec enrobage de citrate et avec enrobage d’acide polyacrylique) de 5 nm de diamètre ont été marquées de manière covalente à l’aide d’un marqueur fluorescent et ont été mélangées avec des colloïdes d’oxyde de silice (SiO2) ou d’argile (montmorillonite). L’homo- et hétéroagglomération des nAg ont été étudiés dans des conditions représentatives d’eaux douces naturelles (pH 7,0; force ionique 10 7 à 10-1 M de Ca2+). Les tailles ont été mesurées par spectroscopie de corrélation par fluorescence (FCS) et les résultats ont été confirmés à l’aide de la microscopie en champ sombre avec imagerie hyperspectrale (HSI). Les résultats ont démontrés que les nanoparticules d’argent à enrobage d’acide polyacrylique sont extrêmement stables sous toutes les conditions imposées, incluant la présence d’autres colloïdes et à des forces ioniques très élevées tandis que les nanoparticules d’argent avec enrobage de citrate ont formées des hétéroagrégats en présence des deux particules colloïdales.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
Au commencement était le style, et le style était monolithique, et le monolithe était style. Mais au commencement de quels commencements? L’Odyssée immémoriale d’Homère ou celle, postmémorielle, de Stanley Kubrick? L’odyssée qui nous fait traverser les eaux troubles du Léthé ou celle qui nous plonge dans la source solennelle du Styx? Le style descendant sur terre sous la forme d’un monolithe pour accélérer le développement de la parole chez les hommes singes ou celui, létal, remontant le fleuve héraclitéen afin de la ravir, tel le feu prométhéen, aux sages femmes? Premier postulat axiologique : la question du style est elle-même une question de style. Impossible de la soulever sans d’abord reconnaître qu’elle dépend de sa formulation dans l’avancement hasardeux d’une réponse. C’est pourtant ce à quoi je vais m’employer, avec ou sans style, dans les pages qui suivent. À défaut de répondre à la question « qu’est-ce que le style? » ou « qu’en est-il du style aujourd’hui? », je veux interroger le style comme opération herméneutique manœuvrant entre forme et sens. La question ainsi reformulée devient : que peut faire le style? [Introduction]
Resumo:
L’attention à la production littéraire des femmes est sûrement l’une des constantes les plus visibles de l’œuvre critique de Pierre Nepveu. Qu’on pense aux préfaces qu’il a signées pour des recueils de Nicole Brossard, France Théoret, Hélène Dorion, à ses lectures de Suzanne Jacob, Élise Turcotte, Marie Uguay, aux nombreux compte rendus qu’il leur consacre dans « La poésie immédiate » mais aussi de celles qu’il appelle « les recluses », Marie de l’Incarnation, Laure Conan, Emily Dickinson. Cette attention n’est cependant précédée d’aucune précaution historique ou salut idéologique, les écrits des femmes sont là d’emblée, porteurs non de leur poids institutionnel grandissant mais d’idées et de formes qui inspirent manifestement la réflexion de l’essayiste, sa pratique de la critique, sa vision de la littérature, du Québec, de l’Amérique. Plus qu’une influence, c’est cette prégnance du féminin que je voudrais donner à lire brièvement à travers quelques exemples tirés de « L’écologie du réel », « Intérieurs du Nouveau monde » et « Lectures des lieux ». [Introduction]
Resumo:
Quand je pense à l’œuvre de Pierre Nepveu, il m’est impossible de séparer le poète du penseur, et de retenir un seul de ses ouvrages. De tous ses livres, deux surtout ont laissé en moi une empreinte profonde qui redevient sensible dès que je les parcours à nouveau : « Intérieurs du Nouveau Monde » (1998) et « Lignes aériennes » (2002). Ces deux recueils portent les mêmes questions, les mêmes inquiétudes et espoirs, ils présentent surtout une certaine parenté esthétique et une tonalité commune dans le recours à la fiction et au témoignage, enjeu très important de l’écriture de Pierre Nepveu. [Introduction]
Resumo:
Qu’il ait fallu attendre « Lignes aériennes » (2002) pour que les critiques s’avisent que la poésie de Pierre Nepveu avait quelque chose à dire de la politique et de l’histoire en cours est proprement aberrant. Où regardent-ils donc? Faut-il que le poème exhibe des drapeaux rouges, bleus ou noirs; qu’il vienne d’un écrivain bien connu pour ses positions sociales et dûment affilié au parti dont le commun des publicistes espère qu’il soit; qu’il aragone à tout vent ou soit atteint de la sartrose, cette maladie mal engagée de la foi; que ses vers attestent des affinités militantes, quitte à faire rimer des slogans; que son auteur soit de tel réseau ma chère; faut-il cela pour qu’un poème soit politique ou pour qu’il ait une dimension politique? Sainte-Beuve, décidément, empeste encore, aujourd’hui déguisé en sociologue de rencontre pour département de lettres, prompt à se donner l’illusion d’avoir quelque chose à dire en filant des « postures » et des « stratégies » qui renvoient encore et toujours à des intentions conspiratoires : l’auteur, figurez-vous, est de retour, il n’écrit pas, il fomente pour faire carrière. [Introduction]