448 resultados para Être-au-monde
Resumo:
Reproduit avec l'autorisation de Carswell, une société Thomson Reuters
Resumo:
L'absentéisme parmi le personnel soignant prend de plus en plus d'ampleur dans les institutions sanitaires publiques au Cameroun. Il représente à l'heure actuelle l'une des principales causes de l'effondrement du système de soins de santé. Ce phénomène se doit d'être réduit à des proportions raisonnables; cependant, les informations nationales sur les niveaux d’absentéisme parmi ce personnel, les coûts associés, ainsi que sur les facteurs qui le déterminent restent encore très faibles. Cette recherche avait pour objectifs de mesurer le niveau d’absentéisme parmi les prestataires de soins de santé des hôpitaux publics du Cameroun ; de déterminer l’influence des caractéristiques personnelles et des facteurs occupationnels sur le comportement d’absence parmi ces professionnels ; et d’évaluer les répercussions économiques de l’absentéisme en termes de coûts associés à la perte de productivité pour les employeurs. Elle portait sur du personnel soignant, notamment les médecins, les infirmiers et les aides-soignants exerçant dans les formations sanitaires publiques (hôpitaux) du Cameroun au mois d’octobre 2008. L’absentéisme était mesuré par le nombre d’heures et d’épisodes (fréquence) d’absences et concernait les retards et les absences de trois jours consécutifs et moins. Les facteurs personnels et occupationnels étudiés étaient l’âge, le sexe, le statut civil, les responsabilités familiales (nombre d’enfants), le niveau d’éducation, l’unité de soins, le type d’emploi, le régime d’emploi, l’horaire de travail, le temps supplémentaire, l’ancienneté dans l’hôpital, la taille de l’hôpital et le revenu de l’employé. Les données ont été recueillies dans 15 formations sanitaires publiques réparties dans six régions du Cameroun, sur la période allant du 1er au 31 octobre 2008, à partir des documents officiels émanant du gouvernement et des hôpitaux. Les analyses statistiques comportaient des analyses descriptives, des analyses bivariées et des analyses multivariées. Le taux de participation moyen des employés a été de 50,7%. Sur les 516 personnes qui composaient l’échantillon, 93,4% avaient eu au moins une absence au travail au mois d’octobre 2008. Le taux d’absentéisme global était de 7,2%, et variait entre 2% et 37% dans les hôpitaux. Chaque participant avait en moyenne 12 épisodes d’absences pendant cette période et la durée moyenne d’absences par participant était d’environ 13 heures et 21 minutes. La durée de l’horaire de travail, le fait de travailler dans un hôpital régional, de travailler selon un horaire fixe, d’être un personnel PPTE et de ne pas effectuer du temps supplémentaire, sont associés significativement à une plus grande fréquence des absences. La durée de l’horaire de travail, le fait d’être médecin, de travailler dans un service d’accueil et des urgences, de travailler selon un horaire fixe et d’être une femme, ont un lien significativement positif avec la durée des absences. Cet absentéisme a absorbé environ 8% de la masse salariale d’octobre 2008. On estime à environ 4 088 568 dollars US courants (2008), les dépenses consacrées par le secteur public de la santé du Cameroun à cet absentéisme en 2008, ce qui représentait approximativement 2,1% des dépenses publiques de santé. La réduction de l’absentéisme de courte durée parmi les professionnels de la santé du secteur public au Cameroun passe par l’amélioration du style de gestion des hôpitaux et l’approfondissement des recherches sur le comportement d’absence parmi ces professionnels.
Resumo:
L’interféron-α pegylé en combinaison avec la ribavirin est le seul traitement approuvé pour le traitement de l’infection au virus de l’hépatite C (VHC). L’efficacité est de 50-75%, la thérapie est coûteuse et induit beaucoup d’effets secondaires. Il est impératif d’avoir une meilleure compréhension de la pathogenèse du VHC afin de développer des traitements plus efficaces ou un vaccin. À cette fin, notre approche est de caractériser la réponse immunitaire cellulaire induite par ARFP, un antigène nouveau et conservé chez le VHC, et de cartographier les épitopes de la réponse immunitaire cellulaire d’un patient infecté au génotype 3a ayant résolu spontanément. Le génotype 3a, étant prévalant chez les utilisateurs de drogues intraveineuses (IDUs) constitue 60% des nouvelles infections. Peu d’épitopes furent identifiés auparavant pour ce génotype, ce qui rend l’étude de la réponse immunitaire difficile chez cette population. Dans cette étude, pour la réponse immunitaire cellulaire dirigée contre ARFP, nous n’avons pas observé de différence significative entre les patients ayant résolu spontanément comparativement avec ceux ayant développé une infection persistante. Ceci suggère fortement que ARFP ne joue pas un rôle majeur lors de la résolution de l’infection aigue au VHC. Pour la caractérisation de la réponse immunitaire cellulaire chez un des patients infectés au génotype 3a, nous avons identifié et caractérisé 5 épitopes spécifiquement reconnus par des lymphocytes T, CD3+, CD4+ et CD8- : E2504-521, NS31064-1081, NS4b1759-1776, NS5a2074-2091, NS5b2421-2436. Nous avons comparé avec ceux connus pour le génotype 1a. Nous avons identifié 4 nouveaux épitopes. Enfin, l’épitope NS4b1759-1776, identifié auparavant, pourrait s’avérer être un candidat intéressant dans la mise au point d’un vaccin à base de peptides immunogéniques contre le VHC.
Resumo:
Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.
Resumo:
L’objectif de ce mémoire est d’étudier les liens entre le climat psychologique des unités organisationnelles et la détresse psychologique. Il s’agit plus précisément de déterminer si le climat psychologique des unités organisationnelles peut être considéré comme un facteur professionnel pouvant favoriser le développement de la détresse psychologique. Nous avons recueilli des données primaires en transmettant un questionnaire spécifique auprès de 362 employés de cinq départements différents d’une société d’assurance du Canada. Deux échelles de mesures de détresse psychologique ont été utilisées aux fins de notre étude : l’échelle de Kessler (1998) utilisée dans l’Enquête Nationale sur la santé des populations du Canada de 1999 et celle d’Ilfeld adaptée par Préville (1994) utilisée dans l’Enquête de Santé Québec de 1998. L’analyse des résultats a partiellement démontré que les dimensions du concept de climat psychologique (la qualité des relations avec les collègues, la qualité des relations avec le superviseur et la qualité de l’environnement immédiat de travail) influencent le degré de détresse psychologique au sein des unités organisationnelles. De plus, les trois composantes du climat psychologique ne prédisent pas de façon similaire les résultats des deux échelles de détresse utilisées.
Resumo:
Dans ce travail, j’étudie les relations entre la blogosphère politique dans la ville de São Paulo, au Brésil, et l’ensemble de l’écologie médiatique dans laquelle celle-ci est insérée. En établissant un dialogue avec les théories qui posent la dissémination des blogues comme le moment de répartition des moyens de production et de démocratisation de parole, je propose que la blogosphère doit plutôt être envisagée comme une instance de filtrage des produits des médias de masse. J’emprunte le concept de « dispositif » à Michel Foucault et à Giorgio Agamben, pour définir les médias du monde contemporain selon les termes d’un dispositif médiatique. J’emprunte aussi les concepts de « two-step flow of communications » et de « leader d’opinion » à Paul F. Lazarsfeld et Elihu Katz pour localiser la blogosphère dans l’ensemble de notre espace médiatique. Je défends également l’idée que les blogueurs exercent aujourd’hui une fonction semblable à celle des leaders d’opinion que décrivent Katz et Lazarsfeld – ce que je nomme la fonction-filtre de la blogosphère - et que ces blogueurs se situent dans la couche intermédiaire du flux d’informations dans les démocraties occidentales, c'est-à-dire celle qui se trouve entre les médias de masse et les récepteurs. Pour conduire ma recherche, j’ai réalisé une ethnographie virtuelle auprès des blogueurs de la ville de São Paulo, au Brésil, pendant la période de la campagne électorale de 2008 à la mairie. Ensuite, j’ai soumis l’ensemble de leur production discursive à une analyse sociolinguistique. Et je conclus que plutôt qu’étant le fruit d’une révolution, l’écologie médiatique contemporaine reprend - en les diversifiant et en les étendant - des processus que l’on ne pensait propres qu’aux dynamiques des médias de masse.
Resumo:
La préparation scolaire de l’enfant en maternelle est associée, selon maintes études, à sa réussite scolaire future. Plusieurs facteurs sont liés à la préparation scolaire, dont l’implication parentale en milieu scolaire, quoiqu’il n’y ait pas consensus à ce sujet. Ainsi, la présente étude vise deux objectifs. Il s’agit tout d’abord de définir quelles sont les caractéristiques de l’enseignant, de la famille et de l’enfant étant associées à l’implication parentale. L’objectif principal se centre, pour sa part, sur les liens possibles entre l’implication parentale et la préparation scolaire de l’enfant en maternelle. Les résultats révèlent que l’âge de l’enseignant et son expérience professionnelle, l’âge des parents et la scolarité de la mère sont les caractéristiques liées à l’implication parentale. De plus, chacune des dimensions de la préparation scolaire des enfants en maternelle (santé physique et bien-être, développement cognitif, intégration sociale et autorégulation) est associée à la communication entre l’enseignant et les parents et à la participation parentale à la vie scolaire de l’enfant. Ainsi, notre étude offre un apport intéressant au domaine des sciences de l’éducation en montrant que l’implication parentale est liée à la préparation scolaire de l’enfant.
Resumo:
Il est peu de notions aussi vastes que celle du non-savoir, mais le flou du caractère nécessairement négatif de sa définition s’accompagne tout de même du sentiment que la source de ce qui ne peut qu’être déterminé négativement par la pensée (non, cela n’est pas le savoir) ne peut qu’être positive. Notion à l’applicabilité infinie, parce qu’en elle vient s’abîmer tout ce qui ne peut tenir dans l’espace de la maîtrise relative à ce dont on peut dire : je sais de quoi il s’agit. Est non-savoir tout ce qui se rapporte au bouillonnement pulsionnel de la vie et à l’échéance fatale de la mort. Ce qui pousse l’homme au meurtre, au génocide, à la guerre et à la violence révolutionnaire se confond avec un contenu affectif et identitaire qui ne peut être ramené au savoir sans laisser de reste. Mais tenter de comprendre ce qui échappe à l’entendement est cela même qui relance sans cesse la réflexion comprise comme cœur du savoir. Le savoir se montre ainsi sous une extrême dépendance face à son Autre. À la lumière de cette hypothèse devant beaucoup aux découvertes de la psychanalyse, le présent mémoire s’est donné pour objectif de jeter un regard frais sur quelques grandes tensions sociopolitiques de l’Histoire; mais il a d’abord fallu évaluer philosophiquement la possibilité d’un concept de non-savoir. Des champs identitaires majeurs — révolutions totalitaires ou démocratiques, bouleversements ou synergies culturelles — sont ainsi analysés sous l’angle d’une économie pulsionnelle qui s’inscrit dans une interaction perpétuelle avec ce qui s’ébauche ici comme une économie du rapport entre non-savoir et savoir. Est ainsi produite une esquisse des rapports possibles entre la vie pulsionnelle de l’homme, le savoir institutionnel et le monde sociopolitique.
Resumo:
Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.
Resumo:
Honoré de Balzac est aujourd’hui connu pour être le père du roman moderne et l’écrivain de La Comédie humaine. Mais nous oublions souvent qu’entre 1830 et 1832, au début de sa carrière, l’auteur a écrit, comme plusieurs écrivains de son temps, des contes. De multiples facteurs peuvent expliquer cet intérêt : les Contes fantastiques d’Hoffmann sont traduits de l’allemand en français et leur succès est immédiat. De plus, les nouveaux modes de publication littéraire, dans les revues et les journaux, favorisent la prolifération du genre. Un corpus retiendra notre attention : Les Cent Contes drolatiques, un projet, impopulaire en son temps, avec lequel Balzac souhaite « restaurer l’école du rire » en France. Au milieu du dix-neuvième siècle, l’auteur recrée des contes comme ceux que Rabelais, Verville et la reine de Navarre écrivaient en leur temps, trois ou quatre siècles auparavant. Pour ce faire, Balzac invente un langage qui simule le vieux français et crée des personnages grotesques. Qu’est-ce, dans l’écriture balzacienne, que l’esthétique du rire, et comment l’auteur exprime-t-il ce concept dans ses Cent Contes drolatiques? Pour répondre à ces questions, nous étudierons les manifestations du grotesque dans l’ensemble de l’œuvre de l’auteur. Aussi, selon Mikhaïl Bakhtine, dans L’Œuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance , le grotesque, uni au rire, est relié au corps : « Le trait marquant du réalisme grotesque est le rabaissement, c’est-à-dire le transfert de tout ce qui est élevé, spirituel, idéal et abstrait sur le plan matériel et corporel. » Par conséquent, ce sont les représentations du corps que nous examinerons dans ce travail. Finalement, l’étude du corps grotesque dans Les Cent Contes drolatiques montrera une autre facette de l’écriture balzacienne, souvent ignorée par les chercheurs : l’importance du rire et la vision du monde que celui-ci communique à travers la littérature.
Resumo:
Introduction: L’asthme relié au travail (ART) est induit ou aggravé par le milieu du travail. L’asthme professionnel (AP) et l’asthme exacerbé au travail (AET) sont difficiles à distinguer en pratique clinique puisque dans les deux conditions les travailleurs se plaignent d’une détérioration de leur asthme au travail. De plus, les médecins sont souvent confrontés à des patients ayant des symptômes respiratoires reliés au travail (SRT) sans être asthmatiques. Ces patients sont souvent exclus des études qui visent à mieux caractériser l’ART. Objectifs : 1. Comparer la variabilité quotidienne des débits expiratoires de pointe (DEP) durant les périodes au et hors travail chez des sujets atteints d’AP et d’AET. 2. Évaluer la prévalence des patients ayant des SRT parmi les sujets référés pour possibilité d’ART, et comparer leurs caractéristiques et leur environnement professionnel avec ceux ayant l’ART. Résultats : L’exposition professionnelle induit une variabilité accrue des DEP chez les sujets avec AP et AET mais celle-ci est plus prononcée dans l’AP. Les sujets ayant des SRT sans être asthmatiques représentent une grande proportion des sujets référés pour possibilité d’ART. Conclusions : L’ART devrait être considéré chez tous les individus qui présentent un asthme de novo, ou une aggravation de leur asthme. La similitude des symptômes entre les sujets ayant des SRT et l’ART rend nécessaire d’effectuer une évaluation extensive. Cette évaluation devrait se faire selon une approche par étapes dans laquelle des tests objectifs améliorent la certitude du diagnostic et aident à différencier entre l’AP et l’AET.
Resumo:
Le contexte particulier du dopage suscite de nombreuses questions à l'égard des obligations et de la responsabilité des médecins. Suivant le Code médical du Mouvement olympique (2005), les médecins doivent respecter les principes de l'éthique médicale et ceux de l'éthique sportive, comme le fairplay. Il arrive parfois que l'éthique sportive entre en conflit avec l'éthique médicale. Les médecins sont alors confrontés à d'importants dilemmes qui peuvent engager leur responsabilité professionnelle et civile. Ces dilemmes se situent notamment au niveau de l'obligation de soins et du secret professionnel. Par exemple, les médecins peuvent-ils prescrire des médicaments pour contrer les effets néfastes du dopage afin de préserver la santé des athlètes ? La question de la recherche sur l'amélioration de la performance est également préoccupante. En raison du caractère clandestin de cette recherche, il y a lieu de se demander si les médecins qui y participent respectent leurs obligations professionnelles. L'analyse des principaux instruments normatifs applicables en l'espèce démontre que les médecins ne doivent pas être placés dans une situation telle qu'ils doivent refuser de suivre des athlètes de crainte d'être accusés de dopage. De plus, le secret professionnel devrait être maintenu lorsqu'un médecin suit un athlète dopé afin de préserver la relation de confiance. Finalement, l'analyse du contexte de la recherche portant sur l'amélioration de la performance révèle que les médecins ne respectent pas toujours leurs obligations. Les médecins fautifs risquent donc d'engager leur responsabilité professionnelle et civile et de faire face à des sanctions sévères.