988 resultados para Vérité et méthode
Resumo:
Les infirmiers doivent maintenir leurs connaissances à jour et poursuivre le développement de leurs compétences. Toutefois, dans le contexte actuel de pénurie d’infirmiers, la formation continue représente un défi pour eux. Or, le e-learning semble offrir un potentiel intéressant pour relever ce défi. Une étude qualitative basée sur la méthode des incidents critiques visait à décrire l’expérience clinique d’infirmiers (n=4) suite à un cours e-learning sur l’enseignement à la clientèle. Ce cours de 45 heures était basé sur l’approche par compétences. Des entrevues individuelles ont permis de documenter l’acquisition et l’utilisation en contexte clinique d’apprentissages effectués durant le cours. Les résultats révèlent que ce cours e-learning a permis aux infirmiers qui ont participé à l’étude (n=4) d’acquérir des ressources (connaissances et habiletés) et de les utiliser dans des situations cliniques d’enseignement à la clientèle. Les stratégies pédagogiques, qui apparaissent les plus prometteuses, à la lumière des résultats, sont la discussion de situations cliniques sur le forum de discussion « en ligne » et le projet de mise en contexte réel. En somme, le e-learning, basé sur l’approche par compétences se révèle une approche pédagogique prometteuse pour soutenir le développement des compétences des infirmiers. Mots clés : e-learning, formation continue, stratégies pédagogiques, approche par compétences
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières Option Expertise-Conseil
Resumo:
Des efforts de recherche considérables ont été déployés afin d'améliorer les résultats de traitement de cancers pulmonaires. L'étude de la déformation de l'anatomie du patient causée par la ventilation pulmonaire est au coeur du processus de planification de traitement radio-oncologique. À l'aide d'images de tomodensitométrie quadridimensionnelles (4DCT), une simulation dosimétrique peut être calculée sur les 10 ensembles d'images du 4DCT. Une méthode doit être employée afin de recombiner la dose de radiation calculée sur les 10 anatomies représentant une phase du cycle respiratoire. L'utilisation de recalage déformable d'images (DIR), une méthode de traitement d'images numériques, génère neuf champs vectoriels de déformation permettant de rapporter neuf ensembles d'images sur un ensemble de référence correspondant habituellement à la phase d'expiration profonde du cycle respiratoire. L'objectif de ce projet est d'établir une méthode de génération de champs de déformation à l'aide de la DIR conjointement à une méthode de validation de leur précision. Pour y parvenir, une méthode de segmentation automatique basée sur la déformation surfacique de surface à été créée. Cet algorithme permet d'obtenir un champ de déformation surfacique qui décrit le mouvement de l'enveloppe pulmonaire. Une interpolation volumétrique est ensuite appliquée dans le volume pulmonaire afin d'approximer la déformation interne des poumons. Finalement, une représentation en graphe de la vascularisation interne du poumon a été développée afin de permettre la validation du champ de déformation. Chez 15 patients, une erreur de recouvrement volumique de 7.6 ± 2.5[%] / 6.8 ± 2.1[%] et une différence relative des volumes de 6.8 ± 2.4 [%] / 5.9 ± 1.9 [%] ont été calculées pour le poumon gauche et droit respectivement. Une distance symétrique moyenne 0.8 ± 0.2 [mm] / 0.8 ± 0.2 [mm], une distance symétrique moyenne quadratique de 1.2 ± 0.2 [mm] / 1.3 ± 0.3 [mm] et une distance symétrique maximale 7.7 ± 2.4 [mm] / 10.2 ± 5.2 [mm] ont aussi été calculées pour le poumon gauche et droit respectivement. Finalement, 320 ± 51 bifurcations ont été détectées dans le poumons droit d'un patient, soit 92 ± 10 et 228 ± 45 bifurcations dans la portion supérieure et inférieure respectivement. Nous avons été en mesure d'obtenir des champs de déformation nécessaires pour la recombinaison de dose lors de la planification de traitement radio-oncologique à l'aide de la méthode de déformation hiérarchique des surfaces. Nous avons été en mesure de détecter les bifurcations de la vascularisation pour la validation de ces champs de déformation.
Resumo:
Contexte. Plusieurs déterminants influencent les pratiques alimentaires des jeunes Québécois. Les aliments offerts dans les établissements scolaires ainsi que les politiques publiques figurent parmi ces facteurs d’influence. En 2011, la Commission scolaire de Montréal (CSDM) a adapté la Politique pour une saine alimentation. Toutefois, depuis sa parution, très peu de données concernant l’application de la politique des écoles de la CSDM ont été recueillies. Objectifs. Évaluer la satisfaction et la perception des élèves de troisième cycle du primaire et du secondaire à l’égard des services alimentaires de la CSDM. Méthode. Soixante-cinq écoles primaires et 27 écoles secondaires ont été ciblées par cette enquête. La collecte de données s’est déroulée sur une période de six semaines par le biais de deux questionnaires distincts disponibles sur le site internet Fluid Survey. La satisfaction et la perception des élèves ont été évaluées à l’aide de questions portant sur leur utilisation du service alimentaire, leurs préférences, ainsi que leurs attitudes et opinions. Analyse statistique. À partir des résultats obtenus, des statistiques descriptives ont été générées. De plus, des tests de Chi-deux ont été produits afin d’évaluer l’association de certaines variables. Résultats. Au total, 4 446 questionnaires ont été retenus aux fins d’analyses. Sommairement, le goût et la propreté des lieux sont deux aspects pour lesquels un grand nombre de jeunes du troisième cycle du primaire et du secondaire accordent de l’importance. Toutefois, la variété de l’offre alimentaire est l’aspect le plus apprécié par les deux groupes de jeunes. Les élèves du primaire sont plus nombreux que ceux du secondaire à accorder de l’importance à l’attrait santé des aliments. Par ailleurs, les plus jeunes élèves choisissent davantage leurs aliments pour contrôler leur poids. Les résultats montrent aussi que la majorité des jeunes du primaire et du secondaire accordent de l’importance à la qualité de leur alimentation, et ce, depuis quelque temps. Finalement, l’opinion des pairs et de la famille semble avoir très peu d’influence sur les choix alimentaires des jeunes, notamment chez les élèves du secondaire. Conclusion. Bien que plusieurs autres déterminants doivent encore être étudiés, ce projet de recherche confirme la pluralité des facteurs d’influence sur les pratiques alimentaires des enfants et des adolescents. Cela dit, en plus d’être un indicateur précieux pour l’évaluation de ses services alimentaires, les résultats obtenus suggèrent également une multitude de pistes d’action pour les intervenants de la CSDM.
Resumo:
Alors que les études littéraires tendent à se professionnaliser et la culture à occuper de moins en moins d’espace dans les grands médias traditionnels, les revues culturelles proposent une critique qui se distingue de ces deux pratiques. Liberté, L’Inconvénient, Contre-jour et Spirale offrent aux intellectuels, critiques et universitaires l’espace d’une pratique mitoyenne, entre celles des publications savantes et des médias grand public. Qu’ils se définissent au premier chef comme herméneutes, médiateurs ou érudits, les critiques de ces revues revendiquent tous une parole littéraire. Chacun des chapitres de ce mémoire se penche sur une publication, retraçant son histoire et étudiant les textes métacritiques afin de cerner les différences et les similitudes entre les conceptions, les fonctions et les mises en pratique de la critique. La méthode emprunte à l’histoire des revues en tant que groupes d’affiliation, développée par Andrée Fortin et Michel Lacroix. L’analyse des thèmes récurrents et des filiations, dans la lignée des travaux de Martine-Emmanuelle Lapointe et d’Anne Caumartin, ainsi que de la rhétorique, particulièrement la notion d’ethos telle que définie par Dominique Maingueneau et Ruth Amossy, permet de mettre en lumière ce qui constitue, pour les praticiens de la critique, la singularité et la valeur de la parole littéraire.
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
OBJECTIF: L’apoB plasmatique prédit le diabète de type 2 chez l’humain. Une clairance ralentie des triglycérides (TG) favorise la lipotoxicité et la résistance à l’insuline (RI). Nous avons démontré ex vivo que les LDL, forme majeure d’apoB-lipoprotéines, altèrent le stockage des gras dans le tissu adipeux blanc (TAB) humain. Nous émettons l’hypothèse que le lien reliant l’apoB plasmatique à la RI et l’hyperinsulinémie est médié par un retard de clairance des gras diététiques. MÉTHODE/RÉSULTATS: Nous avons examiné la sécrétion d’insuline (SI), puis la RI lors d’un test de tolérance au glucose intraveineux suivi d’un clamp hyperinsulinémique-euglycémique chez des sujets obèses normoglycémiques (N=29, 45%hommes, indice de masse corporelle (IMC)≥27kg/m2, 45-74ans, post-ménopausés). La clairance des TG diététiques a été mesurée suivant l’ingestion d’un repas gras marqué au 13C. La fonction d’une biopsie de TAB (à jeun) a été mesurée comme la capacité à stocker un substrat de 3H-TG. L’apoB était de 1,03±0,05g/L et corrélait avec la RI, la 2ième phase de SI, un délai de clairance des TG diététiques et une réduction de la fonction du TAB. Un retard de clairance des TG diététiques était associé à la RI et la 2ième phase de SI. Une correction pour la clairance des TG diététiques ou la fonction du TAB a éliminé l’association entre l’apoB et la RI et la 2ième phase de SI. CONCLUSION: L’association entre l’apoB plasmatique et la RI et la SI chez les sujets obèses est médiée par une clairance ralentie des gras diététiques et une dysfonction du TAB.
Resumo:
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.
Resumo:
L’épilepsie bénigne à pointes centrotemporales (EPCT) est la forme la plus fréquente des épilepsies idiopathiques chez l’enfant (Fastenau et al., 2009). Le pronostic de ces patients est bon, notamment en raison de la rémission spontanée de cette épilepsie à l’adolescence; toutefois plusieurs études suggèrent la présence de troubles cognitifs et de spécificités neuroanatomiques. Il n’existe pas actuellement de consensus sur les liens entre leurs troubles cognitifs et leurs particularités neuroanatomiques et neurofonctionnelles. Dans cette thèse, notre but est de préciser le profil des enfants ayant une épilepsie bénigne à pointes centro-temporales, en investiguant les caractéristiques des patients à plusieurs niveaux: cognitif, fonctionnel, structurel. La thèse est composée de quatre articles, dont deux articles empiriques. Notre premier article a pour objectif de recenser les difficultés cognitives et affectives rapportées par les études s’intéressant aux caractéristiques des enfants ayant une épilepsie bénigne. Bien qu’une certaine variabilité soit retrouvée dans la littérature, cette revue démontre qu’une histoire d’épilepsie, même bénigne, peut être un facteur de risque pour le développement cognitif et socio-affectif des enfants. Notre revue de littérature a indiqué des troubles particuliers du langage chez ces enfants, mais aucune étude n’avait auparavant investigué spécifiquement la compréhension de lecture chez les enfants ayant une EPCT, une compétence essentielle dans le cheminement scolaire des enfants. Ainsi, nous avons développé une tâche novatrice de compréhension de lecture de phrases en imagerie par résonnance magnétique fonctionnelle (IRMf), adaptée à la population pédiatrique. Dans notre second article, nous avons validé cette tâche auprès d’enfants sains et nous avons mis en évidence une mobilisation des régions cérébrales généralement engagées dans des tâches langagières chez l’enfant sain, y compris les régions impliquées dans le traitement sémantique (Berl et al., 2010; Blumenfeld, Booth et Burman, 2006). Le troisième article de cette thèse rapporte notre investigation du réseau cérébral activé durant cette nouvelle tâche de compréhension de lecture de phrases en IRMf chez les enfants ayant une EPCT. Nos résultats suggèrent que ces derniers ont recours à l’activation d’un réseau cérébral plus large, présentant des similarités avec celui retrouvé chez les enfants dyslexiques. Par ailleurs, l’activation du striatum gauche, structure généralement associée à la réalisation de processus cognitifs complexes est uniquement retrouvée chez les enfants épileptiques. Étant donné que les enfants ayant une EPCT obtiennent des performances à la tâche d’IRMf équivalentes à celles des enfants sains, il est possible d’émettre l’hypothèse que ces différences d’activations cérébrales soient adaptatives. L’étude des relations entre les résultats neuropsychologiques, la performance à la tâche et les activations cérébrales a mis en évidence des prédicteurs différents entre les deux groupes d’enfants, suggérant qu’ils ne s’appuient pas exactement sur les mêmes processus cognitifs pour réussir la tâche. De plus, nous avons réalisé un travail d’intégration des diverses méthodologies utilisées dans les études en imagerie pondérée en diffusion chez l’enfant épileptique, ce qui constitue le quatrième article de cette thèse. Nous rapportons les diverses applications de cette méthode dans la caractérisation des anomalies structurelles subtiles de la matière blanche chez les enfants épileptiques en général. Les différentes méthodologies employées, les enjeux, et les biais potentiels relatifs aux traitements des données de diffusion y sont discutés. Enfin, pour mieux comprendre l’origine et les marqueurs de cette épilepsie, nous avons étudié les spécificités structurelles des cerveaux des enfants ayant une EPCT à l’aide d’analyses sur les données d’imagerie par résonnance magnétique. Aucune différence n’a été mise en évidence au niveau de la matière grise entre les cerveaux d’enfants sains et ceux ayant une EPCT. À l’inverse, nous rapportons des différences subtiles au niveau de la matière blanche dans notre population d’enfants épileptiques, avec une diminution de l’anisotropie fractionnelle (FA) au niveau temporal inférieur/moyen de l’hémisphère gauche, ainsi que dans l’hémisphère droit dans les régions frontales moyennes et occipitales inférieures. Ces résultats suggèrent la présence d’altérations de la matière blanche subtiles et diffuses dans le cerveau des enfants ayant une EPCT et concordent avec ceux d’autres études récentes (Ciumas et al., 2014).
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.
Resumo:
Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.
Resumo:
À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.
Resumo:
Prenant comme point de départ le rapport paradoxal qui existe entre le témoignage et la littérature (l’un étant considéré comme véridique et l’autre, comme fictive) le présent mémoire s’intéresse à l’utilisation de la fiction dans les récits autobiographiques et testimoniaux de Jorge Semprun, avec L’Écriture ou la vie (1994), et de Régine Robin, avec L’Immense fatigue des pierres (1996). L’étude de ces textes tente de vérifier l’hypothèse selon laquelle, en faisant de leur témoignage une œuvre littéraire qui assume sa part de fiction, les deux auteurs arriveraient à offrir un témoignage plus juste de leur expérience de la Shoah. Le premier chapitre constitue un panorama critique et historique des deux axes théoriques principaux sur lesquels s’appuie ce travail, d’une part les études sur l’écriture testimoniale et sur la littérature de la Shoah (Derrida, Bornand, Prstojevic) et d’autre part les travaux sur l’autobiographie (Lejeune, Robin, Viart et Vercier). Il s’interroge sur les liens qui les unissent tout en tentant de positionner Robin et Semprun à travers ce champ de pratiques littéraires. Les deuxièmes et troisièmes chapitres s’intéressent ensuite aux différents effets de fiction et de réel qui se trouvent dans les deux œuvres du corpus et analysent, dans un premier temps, la mise en scène d’un pacte de vérité ambiguë passant par la représentation littéraire de la figure auctoriale et de l’acte d’écriture et, dans un deuxième temps, la représentation littéraire du réel en étudiant les nombreuses références intertextuelles, la présence du topos de la visite au camp de concentration, ainsi que l’utilisation particulière de l’archive par Semprun et Robin.