985 resultados para Être-au-monde
Resumo:
L’interféron-α pegylé en combinaison avec la ribavirin est le seul traitement approuvé pour le traitement de l’infection au virus de l’hépatite C (VHC). L’efficacité est de 50-75%, la thérapie est coûteuse et induit beaucoup d’effets secondaires. Il est impératif d’avoir une meilleure compréhension de la pathogenèse du VHC afin de développer des traitements plus efficaces ou un vaccin. À cette fin, notre approche est de caractériser la réponse immunitaire cellulaire induite par ARFP, un antigène nouveau et conservé chez le VHC, et de cartographier les épitopes de la réponse immunitaire cellulaire d’un patient infecté au génotype 3a ayant résolu spontanément. Le génotype 3a, étant prévalant chez les utilisateurs de drogues intraveineuses (IDUs) constitue 60% des nouvelles infections. Peu d’épitopes furent identifiés auparavant pour ce génotype, ce qui rend l’étude de la réponse immunitaire difficile chez cette population. Dans cette étude, pour la réponse immunitaire cellulaire dirigée contre ARFP, nous n’avons pas observé de différence significative entre les patients ayant résolu spontanément comparativement avec ceux ayant développé une infection persistante. Ceci suggère fortement que ARFP ne joue pas un rôle majeur lors de la résolution de l’infection aigue au VHC. Pour la caractérisation de la réponse immunitaire cellulaire chez un des patients infectés au génotype 3a, nous avons identifié et caractérisé 5 épitopes spécifiquement reconnus par des lymphocytes T, CD3+, CD4+ et CD8- : E2504-521, NS31064-1081, NS4b1759-1776, NS5a2074-2091, NS5b2421-2436. Nous avons comparé avec ceux connus pour le génotype 1a. Nous avons identifié 4 nouveaux épitopes. Enfin, l’épitope NS4b1759-1776, identifié auparavant, pourrait s’avérer être un candidat intéressant dans la mise au point d’un vaccin à base de peptides immunogéniques contre le VHC.
Resumo:
Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.
Resumo:
L’objectif de ce mémoire est d’étudier les liens entre le climat psychologique des unités organisationnelles et la détresse psychologique. Il s’agit plus précisément de déterminer si le climat psychologique des unités organisationnelles peut être considéré comme un facteur professionnel pouvant favoriser le développement de la détresse psychologique. Nous avons recueilli des données primaires en transmettant un questionnaire spécifique auprès de 362 employés de cinq départements différents d’une société d’assurance du Canada. Deux échelles de mesures de détresse psychologique ont été utilisées aux fins de notre étude : l’échelle de Kessler (1998) utilisée dans l’Enquête Nationale sur la santé des populations du Canada de 1999 et celle d’Ilfeld adaptée par Préville (1994) utilisée dans l’Enquête de Santé Québec de 1998. L’analyse des résultats a partiellement démontré que les dimensions du concept de climat psychologique (la qualité des relations avec les collègues, la qualité des relations avec le superviseur et la qualité de l’environnement immédiat de travail) influencent le degré de détresse psychologique au sein des unités organisationnelles. De plus, les trois composantes du climat psychologique ne prédisent pas de façon similaire les résultats des deux échelles de détresse utilisées.
Resumo:
Dans ce travail, j’étudie les relations entre la blogosphère politique dans la ville de São Paulo, au Brésil, et l’ensemble de l’écologie médiatique dans laquelle celle-ci est insérée. En établissant un dialogue avec les théories qui posent la dissémination des blogues comme le moment de répartition des moyens de production et de démocratisation de parole, je propose que la blogosphère doit plutôt être envisagée comme une instance de filtrage des produits des médias de masse. J’emprunte le concept de « dispositif » à Michel Foucault et à Giorgio Agamben, pour définir les médias du monde contemporain selon les termes d’un dispositif médiatique. J’emprunte aussi les concepts de « two-step flow of communications » et de « leader d’opinion » à Paul F. Lazarsfeld et Elihu Katz pour localiser la blogosphère dans l’ensemble de notre espace médiatique. Je défends également l’idée que les blogueurs exercent aujourd’hui une fonction semblable à celle des leaders d’opinion que décrivent Katz et Lazarsfeld – ce que je nomme la fonction-filtre de la blogosphère - et que ces blogueurs se situent dans la couche intermédiaire du flux d’informations dans les démocraties occidentales, c'est-à-dire celle qui se trouve entre les médias de masse et les récepteurs. Pour conduire ma recherche, j’ai réalisé une ethnographie virtuelle auprès des blogueurs de la ville de São Paulo, au Brésil, pendant la période de la campagne électorale de 2008 à la mairie. Ensuite, j’ai soumis l’ensemble de leur production discursive à une analyse sociolinguistique. Et je conclus que plutôt qu’étant le fruit d’une révolution, l’écologie médiatique contemporaine reprend - en les diversifiant et en les étendant - des processus que l’on ne pensait propres qu’aux dynamiques des médias de masse.
Resumo:
La préparation scolaire de l’enfant en maternelle est associée, selon maintes études, à sa réussite scolaire future. Plusieurs facteurs sont liés à la préparation scolaire, dont l’implication parentale en milieu scolaire, quoiqu’il n’y ait pas consensus à ce sujet. Ainsi, la présente étude vise deux objectifs. Il s’agit tout d’abord de définir quelles sont les caractéristiques de l’enseignant, de la famille et de l’enfant étant associées à l’implication parentale. L’objectif principal se centre, pour sa part, sur les liens possibles entre l’implication parentale et la préparation scolaire de l’enfant en maternelle. Les résultats révèlent que l’âge de l’enseignant et son expérience professionnelle, l’âge des parents et la scolarité de la mère sont les caractéristiques liées à l’implication parentale. De plus, chacune des dimensions de la préparation scolaire des enfants en maternelle (santé physique et bien-être, développement cognitif, intégration sociale et autorégulation) est associée à la communication entre l’enseignant et les parents et à la participation parentale à la vie scolaire de l’enfant. Ainsi, notre étude offre un apport intéressant au domaine des sciences de l’éducation en montrant que l’implication parentale est liée à la préparation scolaire de l’enfant.
Resumo:
Il est peu de notions aussi vastes que celle du non-savoir, mais le flou du caractère nécessairement négatif de sa définition s’accompagne tout de même du sentiment que la source de ce qui ne peut qu’être déterminé négativement par la pensée (non, cela n’est pas le savoir) ne peut qu’être positive. Notion à l’applicabilité infinie, parce qu’en elle vient s’abîmer tout ce qui ne peut tenir dans l’espace de la maîtrise relative à ce dont on peut dire : je sais de quoi il s’agit. Est non-savoir tout ce qui se rapporte au bouillonnement pulsionnel de la vie et à l’échéance fatale de la mort. Ce qui pousse l’homme au meurtre, au génocide, à la guerre et à la violence révolutionnaire se confond avec un contenu affectif et identitaire qui ne peut être ramené au savoir sans laisser de reste. Mais tenter de comprendre ce qui échappe à l’entendement est cela même qui relance sans cesse la réflexion comprise comme cœur du savoir. Le savoir se montre ainsi sous une extrême dépendance face à son Autre. À la lumière de cette hypothèse devant beaucoup aux découvertes de la psychanalyse, le présent mémoire s’est donné pour objectif de jeter un regard frais sur quelques grandes tensions sociopolitiques de l’Histoire; mais il a d’abord fallu évaluer philosophiquement la possibilité d’un concept de non-savoir. Des champs identitaires majeurs — révolutions totalitaires ou démocratiques, bouleversements ou synergies culturelles — sont ainsi analysés sous l’angle d’une économie pulsionnelle qui s’inscrit dans une interaction perpétuelle avec ce qui s’ébauche ici comme une économie du rapport entre non-savoir et savoir. Est ainsi produite une esquisse des rapports possibles entre la vie pulsionnelle de l’homme, le savoir institutionnel et le monde sociopolitique.
Resumo:
Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.
Resumo:
Honoré de Balzac est aujourd’hui connu pour être le père du roman moderne et l’écrivain de La Comédie humaine. Mais nous oublions souvent qu’entre 1830 et 1832, au début de sa carrière, l’auteur a écrit, comme plusieurs écrivains de son temps, des contes. De multiples facteurs peuvent expliquer cet intérêt : les Contes fantastiques d’Hoffmann sont traduits de l’allemand en français et leur succès est immédiat. De plus, les nouveaux modes de publication littéraire, dans les revues et les journaux, favorisent la prolifération du genre. Un corpus retiendra notre attention : Les Cent Contes drolatiques, un projet, impopulaire en son temps, avec lequel Balzac souhaite « restaurer l’école du rire » en France. Au milieu du dix-neuvième siècle, l’auteur recrée des contes comme ceux que Rabelais, Verville et la reine de Navarre écrivaient en leur temps, trois ou quatre siècles auparavant. Pour ce faire, Balzac invente un langage qui simule le vieux français et crée des personnages grotesques. Qu’est-ce, dans l’écriture balzacienne, que l’esthétique du rire, et comment l’auteur exprime-t-il ce concept dans ses Cent Contes drolatiques? Pour répondre à ces questions, nous étudierons les manifestations du grotesque dans l’ensemble de l’œuvre de l’auteur. Aussi, selon Mikhaïl Bakhtine, dans L’Œuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance , le grotesque, uni au rire, est relié au corps : « Le trait marquant du réalisme grotesque est le rabaissement, c’est-à-dire le transfert de tout ce qui est élevé, spirituel, idéal et abstrait sur le plan matériel et corporel. » Par conséquent, ce sont les représentations du corps que nous examinerons dans ce travail. Finalement, l’étude du corps grotesque dans Les Cent Contes drolatiques montrera une autre facette de l’écriture balzacienne, souvent ignorée par les chercheurs : l’importance du rire et la vision du monde que celui-ci communique à travers la littérature.
Resumo:
Introduction: L’asthme relié au travail (ART) est induit ou aggravé par le milieu du travail. L’asthme professionnel (AP) et l’asthme exacerbé au travail (AET) sont difficiles à distinguer en pratique clinique puisque dans les deux conditions les travailleurs se plaignent d’une détérioration de leur asthme au travail. De plus, les médecins sont souvent confrontés à des patients ayant des symptômes respiratoires reliés au travail (SRT) sans être asthmatiques. Ces patients sont souvent exclus des études qui visent à mieux caractériser l’ART. Objectifs : 1. Comparer la variabilité quotidienne des débits expiratoires de pointe (DEP) durant les périodes au et hors travail chez des sujets atteints d’AP et d’AET. 2. Évaluer la prévalence des patients ayant des SRT parmi les sujets référés pour possibilité d’ART, et comparer leurs caractéristiques et leur environnement professionnel avec ceux ayant l’ART. Résultats : L’exposition professionnelle induit une variabilité accrue des DEP chez les sujets avec AP et AET mais celle-ci est plus prononcée dans l’AP. Les sujets ayant des SRT sans être asthmatiques représentent une grande proportion des sujets référés pour possibilité d’ART. Conclusions : L’ART devrait être considéré chez tous les individus qui présentent un asthme de novo, ou une aggravation de leur asthme. La similitude des symptômes entre les sujets ayant des SRT et l’ART rend nécessaire d’effectuer une évaluation extensive. Cette évaluation devrait se faire selon une approche par étapes dans laquelle des tests objectifs améliorent la certitude du diagnostic et aident à différencier entre l’AP et l’AET.
Resumo:
Le contexte particulier du dopage suscite de nombreuses questions à l'égard des obligations et de la responsabilité des médecins. Suivant le Code médical du Mouvement olympique (2005), les médecins doivent respecter les principes de l'éthique médicale et ceux de l'éthique sportive, comme le fairplay. Il arrive parfois que l'éthique sportive entre en conflit avec l'éthique médicale. Les médecins sont alors confrontés à d'importants dilemmes qui peuvent engager leur responsabilité professionnelle et civile. Ces dilemmes se situent notamment au niveau de l'obligation de soins et du secret professionnel. Par exemple, les médecins peuvent-ils prescrire des médicaments pour contrer les effets néfastes du dopage afin de préserver la santé des athlètes ? La question de la recherche sur l'amélioration de la performance est également préoccupante. En raison du caractère clandestin de cette recherche, il y a lieu de se demander si les médecins qui y participent respectent leurs obligations professionnelles. L'analyse des principaux instruments normatifs applicables en l'espèce démontre que les médecins ne doivent pas être placés dans une situation telle qu'ils doivent refuser de suivre des athlètes de crainte d'être accusés de dopage. De plus, le secret professionnel devrait être maintenu lorsqu'un médecin suit un athlète dopé afin de préserver la relation de confiance. Finalement, l'analyse du contexte de la recherche portant sur l'amélioration de la performance révèle que les médecins ne respectent pas toujours leurs obligations. Les médecins fautifs risquent donc d'engager leur responsabilité professionnelle et civile et de faire face à des sanctions sévères.
Resumo:
Réalisé en cotutelle avec le Centre de recherches politiques Raymond Aron de l'Ecole des Hautes Etudes en Sciences Sociales (EHESS) de Paris, pour un doctorat en études politiques.
Resumo:
Chez la femme, la majorité des cas d’infection au VIH sont acquis lors de relations hétérosexuelles. Cependant, très peu d’informations sont disponibles concernant l’immunité locale naturelle du tractus génital féminin, les facteurs influençant la susceptibilité à l’infection au VIH dans ce compartiment, ainsi que la réponse immunitaire de la muqueuse enclenchée après l’infection. Le but de notre projet est donc d’étudier certains facteurs pouvant être impliqués dans la susceptibilité à l’infection au VIH, afin de mieux comprendre l’immunité du tractus génital féminin. Nous avons, dans un premier temps, analysé le rôle du polymorphisme des gènes HLA-G et HLA-E sur la susceptibilité au VIH dans une population de femmes zimbabwéennes. La présence de l’allèle HLA-G*0105N, en combinaison avec le génotype HLA-EG/HLA-EG, était associée avec une diminution du risque d’infection. Puis, dans une étude cas-contrôle de travailleuses du sexe (TS) du Bénin, nous avons mesuré l’expression de HLA-G soluble au niveau du plasma. Nous avons observé une différence significative dans l’expression de HLA-G soluble, celle-ci étant plus faible dans le groupe des TS VIH positives comparé aux groupes de TS VIH négatives et de femmes VIH négatives de la population générale. Nous avons aussi analysé l’expression de cytokines et chimiokines dans le sérum et le tractus génital des participantes de l’étude du Bénin. Nous avons constaté que chez les TS VIH positives il y avait une expression plus élevée des chimiokines MPC-3, IP-10 et MIG dans le tractus génital et le sérum comparativement aux deux autres groupes. Les patrons d’expression des cytokines variaient selon les compartiments : le niveau de TNF-α et IFN-γ était plus élevé dans le tractus génital des TS VIH positives, alors que le niveau d’IL-2, d’IL-10 et de TNF-α était plus faible dans le sang des TS VIH positives, comparativement aux deux autres groupes. Ainsi, au niveau du tractus génital des femmes VIH positives, il semble y avoir une activation chronique du système immunitaire dans le but de favoriser la dissémination/perpétuation du virus. Les patrons d’expression différents entre le milieu systémique et génital nous montrent que l’immunité présente dans un compartiment n’est pas nécessairement le reflet de l’autre. Nous avons aussi observé une augmentation significative des niveaux d’IL-4, de MIP-1α, de MIP-1β et de MCP-1 dans le sérum des TS VIH négatives. Ces personnes, hautement exposées mais non infectées, semblent démontrer une plus grande capacité à enclencher une réponse immunitaire précoce pour empêcher la dissémination du virus. Notre étude a donc permis d’acquérir de nouvelles connaissances sur l’immunité du tractus génital féminin en relation avec l’infection au VIH.