986 resultados para Théorie de la littérature
Resumo:
This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Le présent mémoire s’intéresse aux interventions policières en contexte de crise. Il s’attarde plus particulièrement à l’usage de la force par les structures d’intervention spécialisée. L’intérêt de cette étude découle principalement du manque de connaissances empiriques sur le sujet. L’objectif général de cette étude est de comprendre les éléments qui peuvent expliquer le recours à la force par les structures d’intervention spécialisées et de vérifier si ces facteurs varient selon le type de menace auquel font face les policiers. Nous nous sommes intéressés à 438 événements de crise suicidaire, de barricade et de prise d’otage qui se sont déroulés au Québec, de 1990 à 2011, et durant lesquels est intervenu le groupe tactique d’intervention (GTI) de la Sûreté du Québec (SQ). Pour une meilleure compréhension de cette problématique, il sera en premier lieu question de comparer, selon leur niveau de risque, les personnes présentant une menace uniquement pour elles-mêmes avec celles présentant une menace pour autrui et les personnes qui présentent une menace tant pour elles-mêmes que pour autrui. En second lieu, malgré le fait que près de 90 % des situations de crise se terminent par une reddition pacifique, il est pertinent de connaître les facteurs qui expliquent l’usage de la force de la part des policiers et de voir si ces facteurs varient selon le niveau de risque de l’individu. Des analyses descriptives ont permis d’établir que les situations où l’individu en crise présente uniquement une menace pour lui-même diffèrent des autres groupes sur la base de certaines variables. Cet individu est davantage jugé comme suicidaire et il possède plus souvent des antécédents psychiatriques. L’élément déclencheur est souvent associé aux problèmes conjugaux, ce qui coïncide avec le fait que c’est souvent la conjointe ou l’ex-conjointe qui appelle les autorités. Des analyses bivariées n’ont pas illustré de profils distincts selon la problématique de la crise. Or, certains facteurs se démarquent des autres de manière générale pour l’ensemble de l’échantillon et les différents groupes. La possession d’une arme par l’individu, le degré d’intoxication, la présence d’antécédents psychiatriques, la durée du premier contact avec les policiers et la qualité de la négociation sont effectivement des facteurs qui semblent influencer à un certain point les opérations. Les analyses de régression logistique indiquent que les policiers interviennent davantage lorsqu’il n’y aucun contact n’est établi avec l’individu. Nous observons également que ces derniers restent davantage en retrait lorsque l’individu, présentant une menace pour lui-même, est en possession d’une arme à feu. D’autre part, il semble que les policiers réagissent plus souvent auprès des individus présentant une menace pour autrui lorsque la négociation est jugée non satisfaisante. Nous pouvons en conclure qu’ils semblent davantage s’attarder à des facteurs précis qu’au type de menace, ce qui rejoint un certain segment de la littérature à ce sujet.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique.
Resumo:
Les populations du caribou forestier (Rangifer tarandus caribou) sont en déclin sur l’ensemble de leur aire de répartition en Amérique du Nord. Il s’avère que la prédation, amplifiée par l’exploitation forestière, en est la principale cause. Ce projet consiste à mettre en place un outil d'aide à la décision, permettant de modéliser les changements du risque de prédation chez le caribou forestier durant la succession forestière, et ce, selon différents scénarios d'aménagement forestier simulés sur la Côte-Nord du Québec, Canada. Ces scénarios, simulés de 2000 à 2150, sont caractérisés par (i) des coupes limitées aux blocs de protection et de remplacement, (ii) des coupes étendues sur le paysage, et finalement (iii) par l'absence de coupe dès 2000. Un modèle basé sur l'individu (MBI) permet de modéliser les déplacements simultanés du caribou forestier, de l'orignal (Alces alces) et du loup gris (Canis lupus) afin d'évaluer le risque de prédation selon les scénarios. En général, le risque de prédation est plus important lorsque les coupes sont limitées aux blocs de protection et de remplacement. En effet, il semble que ces blocs augmentent les probabilités de rencontre entre les proies et leurs prédateurs. Toutefois, certains résultats ne reflètent pas la littérature, ce qui montre la nécessité d'améliorer le MBI. Certaines recommandations visent finalement à bonifier ce MBI pour permettre l'analyse de la viabilité à long terme du caribou forestier en fonction de différents scénarios d'aménagement forestier.
Resumo:
Le théâtre amérindien francophone et/ou de langues autochtones fait partie du paysage québécois depuis la fin des années 1970. Souvent désigné en tant que « théâtre des minorités » en raison de son histoire et de son contexte actuel, ce genre théâtral est lié de près à l’identité et à la mémoire. L’objectif de ce travail de recherche est d’entrevoir ce qui caractérise l’espace théâtral généré par les productions issues du théâtre amérindien francophone au Québec à travers le travail artistique de six créateurs rencontrés pour les besoins de ce mémoire. Pour une meilleure compréhension de ce genre théâtral, un survol historique axé sur le passage d’un théâtre colonial s’appropriant l’expérience amérindienne vers un théâtre amérindien se réappropriant son image ainsi que son identité sera effectué dans l’idée de voir ce qui a mené à l’éclosion d’un théâtre autochtone en Amérique du Nord durant le 20e siècle. Suite à cette démonstration, une revue de la littérature esquissera un portrait des différentes pistes de recherche utilisées pour aborder l’espace théâtral amérindien. Celles-ci permettront de mieux saisir la composition, le fonctionnement ainsi que les rôles de cette zone d’expression et d’observer diverses définitions du théâtre amérindien déjà établies. S’ensuivra une synthèse des entrevues ainsi qu’une analyse des données recueillies dont l’objectif est de voir ce qui détermine et constitue un espace théâtral amérindien autonome. Nous verrons à partir des résultats comment cet espace contribue au développement identitaire, culturel et politique.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE. Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête. Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année. Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats. Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines.
Resumo:
Ce mémoire porte sur les représentations qui ont circulé sur Internet avant et durant le mouvement historique et inattendu de révolte sociale au Brésil, pendant la Coupe des confédérations de 2013. La vague de manifestations a provoqué un débat passionné sur Internet à propos des méga-événements, mais des études sur ce phénomène récent sont encore absents de la littérature. La présente recherche est un effort de combler cette lacune en examinant le cas de la ville de Rio de Janeiro, qui accueillera la finale de la Coupe du monde de soccer de 2014 et sera la ville hôte des Jeux olympiques de 2016. Le but du travail est de comprendre quelles sont les représentations qui émergent des nouvelles en réseau au sujet des transformations et des conflits urbains dans le cadre des méga-événements. À partir d'une analyse logico-naturelle des documents publiés entre 2009 et 2013 sur des sites Web avec quatre profils communicationnels distincts, la recherche met en évidence dans quelle mesure les représentations sociales reproduisent (1) la stratégie de branding urbain de la part du gouvernement et (2) les stratégies de résistance civile de la part des populations affectées par les transformations urbaines. Du point de vue théorique et méthodologique, l'étude mobilise la notion de journalisme liquide, inspiré des travaux du sociologue Zygmunt Bauman, qui s’est concentré sur les conséquences culturelles, économiques et politiques de la mondialisation. Les résultats de l'analyse documentaire ont permis d'exposer les représentations sociales construites autour de trois thématiques centrales : les favelas, les expulsions forcées dans la ville de Rio de Janeiro et les manifestations de juin 2013. En plus d'une discussion théorique critique à propos des résultats, l'étude les confronte avec la littérature scientifique repérée dans la recension des écrits.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
La stagnation est un phénomène fréquent dans le domaine de la natation, bien qu’inexpliqué et incompris, pour lequel peu de solutions sont proposées. Malgré quelques recherches sur ce phénomène, notamment au baseball, la littérature sur le sujet demeure incomplète et ne permet pas de bien cerner le problème de la stagnation. Ainsi, cette étude a pour but premier d’identifier et de comprendre les causes possibles de la stagnation, les changements émotionnels, physiques et sociaux engendrés par un tel phénomène et les stratégies utilisées par les athlètes pour gérer la stagnation. Le deuxième objectif de cette étude est de jeter un regard sur l’impact de l’optimisme sur la résolution de la stagnation. Pour ce faire, des entrevues semi-structurées ont été menées auprès de onze nageurs ayant compétitionné au niveau national canadien. Les nageurs étaient divisés en trois groupes: les nageurs ayant résolu leur stagnation et qui continuent de nager, les nageurs ayant cessé la compétition de natation suite à une stagnation non résolue et ceux qui nagent encore malgré une stagnation non résolue. Les candidats sélectionnés ont complété deux questionnaires sur l’optimisme, le LOT-R et l’ASQ. L’analyse des résultats, réalisée grâce à la théorisation ancrée, a permis de déterminer un ensemble d’émotions vécues par les athlètes et d’identifier des stratégies afin de résoudre la stagnation. Les résultats de cette étude indiquent qu’une balance entre l’optimisme et le pessimisme, une motivation intrinsèque ainsi qu’une auto-détermination chez l'athlète sont des éléments importants afin de surmonter une stagnation.
Resumo:
La confiance envers le gouvernement est une notion fréquemment évoquée dans le discours public et dans la littérature, mais il s’agit d’une notion imprécise, malgré des innovations depuis sa première spécification par David Easton en tant que support systémique. Cette revue de littérature propose de faire le point sur la question de la confiance envers les gouvernements démocratiques. Je définis d’abord la confiance envers le gouvernement comme un concept relationnel et relativement stable dans le temps. Ce mémoire se penche sur 26 facteurs qui sont liés à la confiance envers le gouvernement dans trois grandes catégories : les caractéristiques individuelles, étatiques et sociales. Je démontre que les explications culturelles de la confiance sont nettement supérieures aux explications économiques, et ce à toutes les échelles. Cependant, les jeunes démocraties présentent un profil un peu différent des démocraties plus anciennes : l’économie y joue un rôle un peu plus important.
Resumo:
L’objectif de ce mémoire est d’identifier la nature des changements des politiques sociales adoptés entre 1988 et 1998 en Suède et ainsi de mieux comprendre l’état actuel du modèle suédois, caractérisé dans la littérature par l’institutionnalisation des valeurs d’égalité sociale et d’universalisme. À l’aide d’une grille d’analyse inférée à partir de la typologie des changements de politiques publiques de Peter Hall, l’auteure pose l’hypothèse selon laquelle un changement de paradigme est survenu dans les secteurs de l’éducation obligatoire et de la santé. À l’issue de cette étude, il est démontré que, si le paradigme a effectivement été contesté au cours de la période de réforme étudiée, il est toujours en vigueur à la fin des années 1990. Toutefois, l’effet cumulé des changements d’instruments l’ont miné peu à peu durant les décennies suivantes. Les conséquences de ces changements, devenues des « anomalies », menacent aujourd’hui l’existence du modèle suédois.
Resumo:
Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.
Resumo:
Comme son titre l’indique, ce mémoire a pour objet une réflexion sur la mise en récit d’un personnage historique. Afin d’explorer l’évolution des points de vue sur un personnage historique (Maurice Duplessis) et l’époque à laquelle il est rattaché dans la mémoire collective (la Grande noirceur), ce travail s’appuiera sur la théorie de la biographie de François Dosse (Le pari biographique) ainsi que sur les mises en récit et le discours de trois auteurs différents. La première biographie analysée sera Maurice Duplessis et son temps, récit historique romancé et admiratif d’une figure quasi royale, écrit par Robert Rumilly, historien royaliste et disciple de Charles Maurras. La seconde biographie analysée sera Duplessis, le grand récit épique d’un conservateur illustre, écrit par Conrad Black, homme d’affaires et historien de sensibilité conservatrice. Finalement, la troisième biographie analysée sera la série télévisée Duplessis, écrite par Denys Arcand, présentant Duplessis comme l’incarnation tragique et séguiniste de la nation canadienne-française, lucide et désabusé par rapport à l’impasse historico-politique de son peuple. Pour compléter l’analyse, ce mémoire s’appuiera aussi sur la théorie de l’identité narrative de Paul Ricœur dans Soi-même comme un autre, Temps et récit et La mémoire, l’histoire, l’oubli, et sur la mise en récit et l’écriture même de l’histoire étudiée par Michel de Certeau dans L’écriture de l’histoire. À travers l’analyse de ces trois biographies, ce mémoire tentera de montrer l’évolution du rapport à la mémoire collective et les distinctions entre l’Histoire et la fiction.