999 resultados para nowoczesne technologie a rozwijanie autonomii
Resumo:
L'objet de cette étude est l'acteur dans un spectacle à composante technologique, analysé dans une perspective intermédiale qui est une pratique scénique et une approche analytique émergeante. Je place cette problématique dans le contexte du théâtre contemporain des années 1990 et du début du XXIe siècle notamment. Mon étude est organisée en trois parties. Les premiers chapitres abordent l'acteur dans sa relation avec le dispositif et l'image projetée, lors de deux périodes historiques. La première période se situe à la fin du XIXe siècle et est consacrée aux spectacles féeriques et magiques qui explorent le spectaculaire. La phase suivante se place autour des années 1920 et concerne principalement les travaux d'Erwin Piscator, de Vsevolod Meyerhold, d'Oskar Schlemmer ainsi que de Lev Koulechov. La deuxième partie de la thèse aborde la scène contemporaine imprégnée par les nouveaux médias et cela d'abord dans le contexte de la cyberculture, que je considère comme un aspect sociologique et anthropologique déterminant. Ceci me rapproche de ma définition du théâtre marqué par la technologie que je nomme un « théâtre des médias ». J'analyse les transformations et les déplacements des composantes théâtrales sous l'influence technologique en tant que re-configuration médiale de la scène. Je propose par la suite l'individuation intermédiale en tant que concept pour l'analyse de l'acteur et de la nouvelle subjectivité scénique. La troisième partie s'appuie sur deux grands axes : le dispositif et l'image, où l'acteur devient un dénominateur permanent de l'analyse permutationnelle. L'étude progresse d'abord par l'analyse des éléments suivants: écrans, moniteurs, caméras, capteurs. Ce qui est surtout ici mis en évidence, c'est la corporéité de l'acteur et son rapport spatial avec le dispositif. L'image, par contre, interroge l'interprétation et la construction du rôle. Elle apparaît dans sa fonction la plus statique ainsi que la plus complexe et dynamique, mettant en évidence la multifonction scénique de l'acteur. Il se présente sous des figures multiples (acteur cyborgisé, acteur marionnetisé), à travers ses écritures (interacteur, observateur) et ses identités scéniques nouvelles (formations hybrides). J'aborde à la fin la question de la nouvelle formation de l'interprète selon l'approche intermédiale qui émerge notamment à l'Académie de Maastricht et à l'Ecole régionale d'acteurs de Cannes. Le corpus analytique est composé d'une soixantaine de spectacles dont le noyau se concentre sur les travaux de Robert Lepage, de Jean Lambert-Wild, de LLT Videoteatr « Poza », de Komuna Otwock, du Wooster Groupe, et de Dumb Type.
Resumo:
La question du filtrage de ľinformation génétique dans la cellule est fondamentale. Comment la cellule sélectionne-t-elle, avant de les transformer en RNA puis en protéines, certaines parties bien déterminées de son information génétique? Il ne sera probablement pas possible de donner une explication cohérente du développement embryonnaire, de la différentiation cellulaire et du maintien de ľétat différencie tant que nous n'aurons pas repondu de manière satis-faisante à cette question. Dans un premier chapitre, quelques notions de base concernant ľexpression génétique sont préséntées. Le dogme de flux de ľinformation génétique dans la cellule, DNARNA protéine est valable à la fois pour les procaryotes et les eucaryotes malgré des différences significatives au niveau de la structure et de la régulation des gènes. Contrairement aux génes procaryotes, la plu-part des gènes eucaryotes sont morcelés. Le DNA codant pour une protéine est interrompu par des régions non-codantes dont les transcrits sont éliminés par excision pendant la maturation du RNA messager ultérieurement traduit en protéine. Une grande variété de mécanismes interviennent dans la régulation de ľactivité de ces gènes. Le pouvoir et les limites des méthodes modernes de ľanalyse structurale et fonctionnelle des génes sont discutés dans la deuxième partie de ľarticle. Ľhybridation moléculaire reposant sur la complémentarité des bases azotées des acides nucléiques joue un rôle déterminant dans ľétude de la complexity des génomes et de leur expression. Récemment, ľapplication de la technologie du DNA recombinant et des techniques annexes a permis ľisolement ainsi que la caractérisation de plusieurs génes eucaryotes. La question de ľexpression différentielle de ces génes est actuellement intensément étudiée dans plusieurs systèmes de transcription ayant chacun ses points forts et ses faiblesses. En guise de conclusion, quelques implications de ľessor prodigieux que connaît la génétique moléculaire sont discutées.
Resumo:
RESUME L'objectif de cette thèse est d'approfondir la compréhension de la transformation des conflits liés à l'utilisation et la répartition des ressources foncières, de l'eau ainsi que des ressources politiques en région aride ou semi-aride. Cette thèse se concentre en particulier sur la façon dont les acteurs et les institutions résolvent les conflits dans un espace dominé par un mode de vie pastoral au sein des pays de la Corne de l'Afrique. Celle-ci réunit des zones périphériques mal contrôlée et caractérisée par une faible administration publique qui coexiste avec des instances coutumières et d'autres autorités. Le cas de la région Somali d'Ethiopie (ou Ogaden) nous démontre que les disputes et les pratiques de gestion des conflits existantes sont encastrées dans les normes, les politiques et les relations de pouvoir locales. Par conséquent, ce travail réfute le déterminisme causal de la littérature des conflits dits environnementaux en soulignant l'existence d'une vaste palette de stratégies de résolution des conflits. Il démontre empiriquement la capacité des éleveurs, des paysans et d'autres utilisateurs de ressources en propriété commune («common- pool resources », CPRs) à coopérer plutôt qu'à se disputer. De la même façon, la préférence idéologique de la plupart des études sur les CPRS pour des groupes d'utilisateurs homogènes et des systèmes de ressources d'utilisation simple est remise en question. En effet, l'existence de multiples ressources naturelles et politiques dans la région Somali d'Ethiopie justifie cette remise en cause. En soulignant l'économie politique dans laquelle se situent les conflits pastoraux et leur gestion cette thèse critique l'approche dépolitisée sur l'utilisation des ressources en propriété commune ainsi que les perspectives technocratiques sur les processus de construction des institutions. Les résultats de recherche marquent le rôle central et souvent inattendu de l'état dans la formation des conflits et la gestion des ressources dans sa périphérie pastorale. Avec |'introduction du fédéralisme ethnique éthiopien et la décentralisation administrative, la construction de l'état à pris une tournure nouvelle dans la région Somali depuis |991 - la période analysée dans cette étude. Ce processus fut accompagné de trois dynamiques parallèles (1) L'expansion des ressources étatiques dans les zones rurales les plus reculées, (2) la politisation des liens de parenté et (3) la redéfinition de la relation entre l'homme et son environnement naturel. En ce qui concerne l'atténuation des conflits, la thèse révèle que le rôle de l'état est spatialement différentié, que l'incorporation des autorités coutumières dans les gouvernements locaux est politiquement ambiguë, et que l'appui sur les lois coutumières ne « gèle » pas forcement les traditions. Les institutions mixtes qui allient règles coutumières et bureaucratiques sont souvent efficaces dans la gestion et la résolution des conflits liés aux ressources en milieu rural, mais pas dans la prévention et la transformation de ces conflits sur le long terme. En ce qui concerne la gestion des ressources, l'étude souligne le fait que les politiques publiques institutionnelles qui ignorent les variations saisonnières de l'utilisation des ressources, la multiplicité des revendications par les utilisateurs des ressources et les droits de propriété non exclusif ne font qu'aggraver des tensions entre divers groupes plutôt que de les atténuer. C'est précisèrent le cas de la décentralisation selon la logique « ethnique » de l'Ethiopie et d'autres politiques publiques sectorielles dont le but est de promouvoir la sédentarisation en incitant les groupes pastoraux à réclamer et occuper les territoires de manière permanente. En conclusion, cette thèse insiste sur (1) l'importance du renforcement du système de régulation au sein du régime institutionnel de ressources pastorales, (2) l'élaboration de nouvelles normes qui produisent des arrangements fonciers reconnus à la fois par les communautés et l'état, (3) la conception de politique publiques qui prennent en compte le périmètre des écosystèmes en place plutôt que des entités ethniques ou politiques et (4) le besoin d'un processus de démocratisation des projets de développement et de la représentation politique en périphéries semi-aride. L'étude est composée des chapitres suivants. Le chapitre 1 introduit les éléments clés des systèmes d'élevage dans la Corne de l'Afrique et les transitions économiques, écologiques et politiques dans lesquelles se situe le pastoralisme nomade. Quelques thèmes récurrents sont ici résumés dont le déclin des économies de cheptel, l'érosion de la gestion des terres arides et l'expansion de l'insécurité physique. Le chapitre 2 dissèque de manière critique le concept de conflit environnemental et les théories de la propriété commune en tant qu'explications théoriques des conflits dits pastoraux. Tandis que le premier décrit la violence comme une réaction à la raréfaction des ressources naturelles due aux pressions démographiques et au changement climatique, les secondes considèrent les confits comme l'expression d'un échec institutionnel de droits de propriété insuffisamment définis. Ce chapitre expose les défauts de ces deux explications et propose une approche alternative qui tient compte des relations de pouvoir, des institutions de gestion des conflits et des ressources naturelles, et de l'écologie non-équilibrée des régions arides. Le chapitre 3 élabore un cadre conceptuel qui rassemble des perspectives empruntées à la littérature portant sur la gestion des ressources naturelles, les techniques de médiation des conflits, les nouvelles théories « new range ecology » et les régimes institutionnels de ressources naturelles. Trois hypothèses décrivent les conditions requises pour prévenir, résoudre ou transformer les conflits liés à l'utilisation multiple des ressources dans les zones pastorales. Elles concernent (1) l'inclusion de partis tiers dans les processus de gestion de confits, (2) l'intégration de règles bureaucratiques et coutumières dans la gestion des ressources et des conflits et (3) le régime institutionnel de ressources naturelles qui concilie des revendications multiples aux ressources CPRs de manière flexible et inclusive. Le chapitre 4 présente les méthodes et la philosophie de recherche qui sous-tendent l'argumentation et l'analyse de la thèse. Il détaille l'opérationnalisation du cadre conceptuel et la sélection des études de cas, le processus de collecte des données et se penche sur les expériences de recherches de terrain de l'auteur. Le chapitre 5 décrit les conflits fonciers dans le district de Harshin où une expansion incontrôlée de clôtures des pâturages a encouragé la prolifération de conflits violents parmi les éleveurs Isaaq depuis la fin des années 1980. L'hétérogénéisation de l'utilisation des ressources, la multiplication des règles de gestion et l'incapacité des anciens à imposer un retour à la propriété commune des pâturages sont les points centraux de cette étude de cas. Le chapitre 6 passe en revue la compétition féroce autour de l'eau le long de la berge très peuplée et fertile du Wabi Shabelle dans le district de K'elafo. L'étude de cas reflète les interactions généalogiques complexes entre les groupes "nobles" et les « communs », la dépendance des cultivateurs Rer Barre du capital et de la technologie, pour les pompes à eaux par exemple, et l'importance continue des pratiques coutumières de gestion de l'agriculture. Le chapitre 7 démontre les rivalités autour du gâteau fiscal dans la capitale de la région Somali, Jijiga, où les partis politiques, les anciens claniques et les technocrates manoeuvrent pour le partage du pouvoir et des positions au sein de l'administration régionale. L'étude de cas rend compte de l'usage politisé du budget public, de l'expansion des ressources étatiques dans les zones rurales à travers la décentralisation, et de l'importance des agents intermédiaires entre les niveaux fédéral, régional et local dans l'allocation des ressources. Le chapitre 8 analyse les rôles et contributions respectifs des anciens et des acteurs étatiques dans la gestion de conflits violents entre les différents groupes dans la région Somali. En révélant les points forts et faibles des processus de paix basés sur les compensations de sang, ce chapitre propose une appréciation nuancée de la proposition (1) concernant l'inclusion de partis tiers dans la gestion de conflit. Le chapitre conclut en soulignant les contradictions et les effets associés à la délégation aux autorités coutumières par l'état Ethiopien de la résolution des conflits et de la maintenance de la sécurité. Le chapitre 9 se concentre sur l'impact des projets de développement financés par l'état et des politiques publiques qui régulent la propriété des terres communes dans les régions pastorales de l'Ethiopie. Ni les politiques publiques sectorielles existantes ni les principes institutionnels du fédéralisme ethnique ne reconnaissent les revendications et utilisations multiples qui se font des ressources dans la région aride et semi- aride, ce qui valide la proposition (3) sur le besoin d'un régime institutionnel de ressources différencié et flexible. Le chapitre attire l'attention sur les aspects contre-productifs d'une administration et d'une représentation politique basées sur un concept territorial, ce qui encourage une occupation permanente des ressources pour des bénéfices politiques. Le chapitre 10 conclut en évaluant la proposition (2) qui concerne l'efficacité de la gestion et de la transformation des conflits basés sur l'intégration des règles et lois coutumières et bureaucratiques. Ce chapitre souligne le rôle controversé mais décisif de la construction et de l'expansion graduelle de l'état dans les périphéries pastorales. Finalement, quelques recommandations sont proposées en vue de l'amélioration de la gestion des conflits et des ressources en milieu pastoral clans la région Somali et des espaces comparables dans la Corne de l'Afrique.
Resumo:
Background: To evaluate outcomes after optimized laser in situ keratomileusis (LASIK) for astigmatism correction with flap created by a mechanical microkeratome or a femtosecond laser. Patients and Methods: In this retrospective study, a total of 102 eyes of 71 consecutive patients were enrolled undergoing optimized LASIK treatments using the Allegretto laser system (WaveLight Laser Technologie AG, Erlangen, Germany). A mechanical microkeratome for flap creation was used (One Use, Moria®) in 46 eyes (31 patients, spherical equivalent [SE] -4.44 D ± 2.4) and a femtosecond laser was used (LDV, Ziemer®) in 56 eyes (40 patients, spherical equivalent [SE] -3.07 D ± 3.3). The two groups were matched for inclusion criteria and were operated under similar conditions by the same surgeon. Results: Overall, the preoperative spherical equivalent was -9.5 diopters (D) to +3.37 D; the preoperative manifest astigmatism was between -1.5 D and -3.5 D. At 6 months postoperatively, the mean postoperative uncorrected distance visual acuity (UDVA) was 0.93 ± 0.17 (range 0.4 to 1.2) in the Moria group and 1.0 ± 0.21 (range 0.6 to 1.6) in the Femto group, which was statistically significant (p = 0.003). Comparing the cylinder power there was a statistical difference between the two groups (p = 0.0015). Conclusions: This study shows that the method of flap creation has a significant impact on postoperative astigmatism with a significantly better postoperative UDVA in the Femto group. These findings suggest that the femtosecond laser provides a better platform for LASIK treatment of astigmatism than the commonly used microkeratome.
Resumo:
l'imagerie par résonance magnétique (IRMC) est une technologie utilisée depuis les aimées quatre¬-vingts dans le monde de la cardiologie. Cette technique d'imagerie non-invasive permet d'acquérir Ses images du coeur en trois dimensions, dans n'importe quel, plan, sans application de radiation, et en haute résolution. Actuellement, cette technique est devenue un référence dans l'évaluation et 'l'investigation de différentes pathologies cardiaques. La morphologie cardiaque, la fonction des ventricules ainsi que leur contraction, la perfusion tissulaire ainsi que la viabilité tissulaire peuvent être caractérisés en utilisant différentes séquences d'imagerie. Cependant, cette technologie repose sur des principes physiques complexes et la mise en pratique de cette technique se heurte à la difficulté d'évaluer un organe en mouvement permanent. L'IRM cardiaque est donc sujette à différents artefacts qui perturbent l'interprétation des examens et peuvent diminuer la précision diagnostique de cette technique. A notre connaissance, la plupart des images d'IRMC sont analysées et interprétées sans évaluation rigoureuse de la qualité intrinsèque de l'examen. Jusqu'à présent, et à notre connaissance, aucun critère d'évaluation de la qualité des examens d'IRMC n'a été clairement déterminé. L'équipe d'IRMC du CHUV, dirigée par le Prof J. Schwitter, a recensé une liste de 35 critères qualitatifs et 12 critères quantitatifs évaluant la qualité d'un examen d'IRMC et les a introduit dans une grille d'évaluation. L'objet de cette étude est de décrire et de valider la reproductibilité des critères figurant dans cette grille d'évaluation, par l'interprétation simultanée d'examens IRMC par différents observateurs (cardiologues spécialisés en IRM, étudiant en médecine, infirmière spécialisée). Notre étude a permis de démontrer que les critères définis pour l'évaluation des examens d'IRMC sont robustes, et permettent une bonne reproductibilité intra- et inter-observateurs. Cette étude valide ainsi l'utilisation de ces critères de qualité dans le cadre de l'imagerie par résonance magnétique cardiaque. D'autres études sont encore nécessaires afin de déterminer l'impact de la qualité de l'image sur la précision diagnostique de cette technique. Les critères standardisés que nous avons validés seront utilisés pour évaluer la qualité des images dans le cadre d'une étude à échelle européenne relative à l'IRMC : "l'EuroCMR registry". Parmi les autres utilités visées par ces critères de qualité, citons notamment la possibilité d'avoir une référence d'évaluation de la qualité d'examen pour toutes les futures études cliniques utilisant la technologie d'IRMC, de permettre aux centres d'IRMC de quantifier leur niveau de qualité, voire de créer un certificat de standard de qualité pour ces centres, d'évaluer la reproductibilité de l'évaluation des images par différents observateurs d'un même centre, ou encore d'évaluer précisément la qualité des séquences développées à l'avenir dans le monde de l'IRMC.
Resumo:
The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux
Resumo:
Abstract : The occupational health risk involved with handling nanoparticles is the probability that a worker will experience an adverse health effect: this is calculated as a function of the worker's exposure relative to the potential biological hazard of the material. Addressing the risks of nanoparticles requires therefore knowledge on occupational exposure and the release of nanoparticles into the environment as well as toxicological data. However, information on exposure is currently not systematically collected; therefore this risk assessment lacks quantitative data. This thesis aimed at, first creating the fundamental data necessary for a quantitative assessment and, second, evaluating methods to measure the occupational nanoparticle exposure. The first goal was to determine what is being used where in Swiss industries. This was followed by an evaluation of the adequacy of existing measurement methods to assess workplace nanopaiticle exposure to complex size distributions and concentration gradients. The study was conceived as a series of methodological evaluations aimed at better understanding nanoparticle measurement devices and methods. lt focused on inhalation exposure to airborne particles, as respiration is considered to be the most important entrance pathway for nanoparticles in the body in terms of risk. The targeted survey (pilot study) was conducted as a feasibility study for a later nationwide survey on the handling of nanoparticles and the applications of specific protection means in industry. The study consisted of targeted phone interviews with health and safety officers of Swiss companies that were believed to use or produce nanoparticles. This was followed by a representative survey on the level of nanoparticle usage in Switzerland. lt was designed based on the results of the pilot study. The study was conducted among a representative selection of clients of the Swiss National Accident Insurance Fund (SUVA), covering about 85% of Swiss production companies. The third part of this thesis focused on the methods to measure nanoparticles. Several pre- studies were conducted studying the limits of commonly used measurement devices in the presence of nanoparticle agglomerates, This focus was chosen, because several discussions with users and producers of the measurement devices raised questions about their accuracy measuring nanoparticle agglomerates and because, at the same time, the two survey studies revealed that such powders are frequently used in industry. The first preparatory experiment focused on the accuracy of the scanning mobility particle sizer (SMPS), which showed an improbable size distribution when measuring powders of nanoparticle agglomerates. Furthermore, the thesis includes a series of smaller experiments that took a closer look at problems encountered with other measurement devices in the presence of nanoparticle agglomerates: condensation particle counters (CPC), portable aerosol spectrometer (PAS) a device to estimate the aerodynamic diameter, as well as diffusion size classifiers. Some initial feasibility tests for the efficiency of filter based sampling and subsequent counting of carbon nanotubes (CNT) were conducted last. The pilot study provided a detailed picture of the types and amounts of nanoparticles used and the knowledge of the health and safety experts in the companies. Considerable maximal quantities (> l'000 kg/year per company) of Ag, Al-Ox, Fe-Ox, SiO2, TiO2, and ZnO (mainly first generation particles) were declared by the contacted Swiss companies, The median quantity of handled nanoparticles, however, was 100 kg/year. The representative survey was conducted by contacting by post mail a representative selection of l '626 SUVA-clients (Swiss Accident Insurance Fund). It allowed estimation of the number of companies and workers dealing with nanoparticles in Switzerland. The extrapolation from the surveyed companies to all companies of the Swiss production sector suggested that l'309 workers (95%-confidence interval l'073 to l'545) of the Swiss production sector are potentially exposed to nanoparticles in 586 companies (145 to l'027). These numbers correspond to 0.08% (0.06% to 0.09%) of all workers and to 0.6% (0.2% to 1.1%) of companies in the Swiss production sector. To measure airborne concentrations of sub micrometre-sized particles, a few well known methods exist. However, it was unclear how well the different instruments perform in the presence of the often quite large agglomerates of nanostructured materials. The evaluation of devices and methods focused on nanoparticle agglomerate powders. lt allowed the identification of the following potential sources of inaccurate measurements at workplaces with considerable high concentrations of airborne agglomerates: - A standard SMPS showed bi-modal particle size distributions when measuring large nanoparticle agglomerates. - Differences in the range of a factor of a thousand were shown between diffusion size classifiers and CPC/SMPS. - The comparison between CPC/SMPS and portable aerosol Spectrometer (PAS) was much better, but depending on the concentration, size or type of the powders measured, the differences were still of a high order of magnitude - Specific difficulties and uncertainties in the assessment of workplaces were identified: the background particles can interact with particles created by a process, which make the handling of background concentration difficult. - Electric motors produce high numbers of nanoparticles and confound the measurement of the process-related exposure. Conclusion: The surveys showed that nanoparticles applications exist in many industrial sectors in Switzerland and that some companies already use high quantities of them. The representative survey demonstrated a low prevalence of nanoparticle usage in most branches of the Swiss industry and led to the conclusion that the introduction of applications using nanoparticles (especially outside industrial chemistry) is only beginning. Even though the number of potentially exposed workers was reportedly rather small, it nevertheless underscores the need for exposure assessments. Understanding exposure and how to measure it correctly is very important because the potential health effects of nanornaterials are not yet fully understood. The evaluation showed that many devices and methods of measuring nanoparticles need to be validated for nanoparticles agglomerates before large exposure assessment studies can begin. Zusammenfassung : Das Gesundheitsrisiko von Nanopartikel am Arbeitsplatz ist die Wahrscheinlichkeit dass ein Arbeitnehmer einen möglichen Gesundheitsschaden erleidet wenn er diesem Stoff ausgesetzt ist: sie wird gewöhnlich als Produkt von Schaden mal Exposition gerechnet. Für eine gründliche Abklärung möglicher Risiken von Nanomaterialien müssen also auf der einen Seite Informationen über die Freisetzung von solchen Materialien in die Umwelt vorhanden sein und auf der anderen Seite solche über die Exposition von Arbeitnehmenden. Viele dieser Informationen werden heute noch nicht systematisch gesarnmelt und felilen daher für Risikoanalysen, Die Doktorarbeit hatte als Ziel, die Grundlagen zu schaffen für eine quantitative Schatzung der Exposition gegenüber Nanopartikel am Arbeitsplatz und die Methoden zu evaluieren die zur Messung einer solchen Exposition nötig sind. Die Studie sollte untersuchen, in welchem Ausmass Nanopartikel bereits in der Schweizer Industrie eingesetzt werden, wie viele Arbeitnehrner damit potentiel] in Kontakt komrrien ob die Messtechnologie für die nötigen Arbeitsplatzbelastungsmessungen bereits genügt, Die Studie folcussierte dabei auf Exposition gegenüber luftgetragenen Partikel, weil die Atmung als Haupteintrittspforte iïlr Partikel in den Körper angesehen wird. Die Doktorarbeit besteht baut auf drei Phasen auf eine qualitative Umfrage (Pilotstudie), eine repräsentative, schweizerische Umfrage und mehrere technische Stndien welche dem spezitischen Verständnis der Mëglichkeiten und Grenzen einzelner Messgeräte und - teclmikeri dienen. Die qualitative Telephonumfrage wurde durchgeführt als Vorstudie zu einer nationalen und repräsentativen Umfrage in der Schweizer Industrie. Sie zielte auf Informationen ab zum Vorkommen von Nanopartikeln, und den angewendeten Schutzmassnahmen. Die Studie bestand aus gezielten Telefoninterviews mit Arbeit- und Gesundheitsfachpersonen von Schweizer Unternehmen. Die Untemehmen wurden aufgrund von offentlich zugànglichen lnformationen ausgewählt die darauf hinwiesen, dass sie mit Nanopartikeln umgehen. Der zweite Teil der Dolctorarbeit war die repräsentative Studie zur Evalniernng der Verbreitnng von Nanopaitikelanwendungen in der Schweizer lndustrie. Die Studie baute auf lnformationen der Pilotstudie auf und wurde mit einer repräsentativen Selektion von Firmen der Schweizerischen Unfall Versicherungsanstalt (SUVA) durchgeüihxt. Die Mehrheit der Schweizerischen Unternehmen im lndustrieselctor wurde damit abgedeckt. Der dritte Teil der Doktorarbeit fokussierte auf die Methodik zur Messung von Nanopartikeln. Mehrere Vorstudien wurden dnrchgefîihrt, um die Grenzen von oft eingesetzten Nanopartikelmessgeräten auszuloten, wenn sie grösseren Mengen von Nanopartikel Agglomeraten ausgesetzt messen sollen. Dieser F okns wurde ans zwei Gründen gewählt: weil mehrere Dislcussionen rnit Anwendem und auch dem Produzent der Messgeràte dort eine Schwachstelle vermuten liessen, welche Zweifel an der Genauigkeit der Messgeräte aufkommen liessen und weil in den zwei Umfragestudien ein häufiges Vorkommen von solchen Nanopartikel-Agglomeraten aufgezeigt wurde. i Als erstes widmete sich eine Vorstndie der Genauigkeit des Scanning Mobility Particle Sizer (SMPS). Dieses Messgerät zeigte in Präsenz von Nanopartikel Agglorneraten unsinnige bimodale Partikelgrössenverteilung an. Eine Serie von kurzen Experimenten folgte, welche sich auf andere Messgeräte und deren Probleme beim Messen von Nanopartikel-Agglomeraten konzentrierten. Der Condensation Particle Counter (CPC), der portable aerosol spectrometer (PAS), ein Gerät zur Schàtzung des aerodynamischen Durchniessers von Teilchen, sowie der Diffusion Size Classifier wurden getestet. Einige erste Machbarkeitstests zur Ermittlnng der Effizienz von tilterbasierter Messung von luftgetragenen Carbon Nanotubes (CNT) wnrden als letztes durchgeiührt. Die Pilotstudie hat ein detailliiertes Bild der Typen und Mengen von genutzten Nanopartikel in Schweizer Unternehmen geliefert, und hat den Stand des Wissens der interviewten Gesundheitsschntz und Sicherheitsfachleute aufgezeigt. Folgende Typen von Nanopaitikeln wurden von den kontaktierten Firmen als Maximalmengen angegeben (> 1'000 kg pro Jahr / Unternehrnen): Ag, Al-Ox, Fe-Ox, SiO2, TiO2, und ZnO (hauptsächlich Nanopartikel der ersten Generation). Die Quantitäten von eingesetzten Nanopartikeln waren stark verschieden mit einem ein Median von 100 kg pro Jahr. ln der quantitativen Fragebogenstudie wurden l'626 Unternehmen brieflich kontaktiert; allesamt Klienten der Schweizerischen Unfallversicherringsanstalt (SUVA). Die Resultate der Umfrage erlaubten eine Abschätzung der Anzahl von Unternehmen und Arbeiter, welche Nanopartikel in der Schweiz anwenden. Die Hochrechnung auf den Schweizer lndnstriesektor hat folgendes Bild ergeben: ln 586 Unternehmen (95% Vertrauensintervallz 145 bis 1'027 Unternehmen) sind 1'309 Arbeiter potentiell gegenüber Nanopartikel exponiert (95%-Vl: l'073 bis l'545). Diese Zahlen stehen für 0.6% der Schweizer Unternehmen (95%-Vl: 0.2% bis 1.1%) und 0.08% der Arbeiternehmerschaft (95%-V1: 0.06% bis 0.09%). Es gibt einige gut etablierte Technologien um die Luftkonzentration von Submikrometerpartikel zu messen. Es besteht jedoch Zweifel daran, inwiefern sich diese Technologien auch für die Messurrg von künstlich hergestellten Nanopartikeln verwenden lassen. Aus diesem Grund folcussierten die vorbereitenden Studien für die Arbeitsplatzbeurteilnngen auf die Messung von Pulverri, welche Nan0partike1-Agg10merate enthalten. Sie erlaubten die ldentifikation folgender rnöglicher Quellen von fehlerhaften Messungen an Arbeitsplätzen mit erhöhter Luft-K0nzentrati0n von Nanopartikel Agglomeratenz - Ein Standard SMPS zeigte eine unglaubwürdige bimodale Partikelgrössenverteilung wenn er grössere Nan0par'til<e1Agg10merate gemessen hat. - Grosse Unterschiede im Bereich von Faktor tausend wurden festgestellt zwischen einem Diffusion Size Classiîier und einigen CPC (beziehungsweise dem SMPS). - Die Unterschiede zwischen CPC/SMPS und dem PAS waren geringer, aber abhängig von Grosse oder Typ des gemessenen Pulvers waren sie dennoch in der Grössenordnung von einer guten Grössenordnung. - Spezifische Schwierigkeiten und Unsicherheiten im Bereich von Arbeitsplatzmessungen wurden identitiziert: Hintergrundpartikel können mit Partikeln interagieren die während einem Arbeitsprozess freigesetzt werden. Solche Interaktionen erschweren eine korrekte Einbettung der Hintergrunds-Partikel-Konzentration in die Messdaten. - Elektromotoren produzieren grosse Mengen von Nanopartikeln und können so die Messung der prozessbezogenen Exposition stören. Fazit: Die Umfragen zeigten, dass Nanopartikel bereits Realitàt sind in der Schweizer Industrie und dass einige Unternehmen bereits grosse Mengen davon einsetzen. Die repräsentative Umfrage hat diese explosive Nachricht jedoch etwas moderiert, indem sie aufgezeigt hat, dass die Zahl der Unternehmen in der gesamtschweizerischen Industrie relativ gering ist. In den meisten Branchen (vor allem ausserhalb der Chemischen Industrie) wurden wenig oder keine Anwendungen gefunden, was schliessen last, dass die Einführung dieser neuen Technologie erst am Anfang einer Entwicklung steht. Auch wenn die Zahl der potentiell exponierten Arbeiter immer noch relativ gering ist, so unterstreicht die Studie dennoch die Notwendigkeit von Expositionsmessungen an diesen Arbeitsplätzen. Kenntnisse um die Exposition und das Wissen, wie solche Exposition korrekt zu messen, sind sehr wichtig, vor allem weil die möglichen Auswirkungen auf die Gesundheit noch nicht völlig verstanden sind. Die Evaluation einiger Geräte und Methoden zeigte jedoch, dass hier noch Nachholbedarf herrscht. Bevor grössere Mess-Studien durgefîihrt werden können, müssen die Geräte und Methodem für den Einsatz mit Nanopartikel-Agglomeraten validiert werden.
Resumo:
RÉSUMÉ L'Organisation Mondiale de la Santé (OMS) recommande d'administrer l'oxygène par concentrateurs dans les pays en voie de développement (PVD), les cylindres posant des problèmes logistiques et financiers trop importants. Cette technologie a été proposée aux enfants d'un hôpital sénégalais (Ndioum) qui présentaient les critères d'oxygénation de l'OMS. Les bénéfices cliniques et financiers ont été majeurs. En revanche, les connaissances des soignants sur les diverses techniques d'administration d'oxygène ainsi que les prestations du service de maintenance étaient insuffisantes. L'implantation de concentrateurs doit être encouragée dans les PVD, mais doit respecter une stratégie englobant enseignement, maintenance et suivi de l'opération. Diverses actions correctrices ont été entreprises à Ndioum où plusieurs concentrateurs fonctionnent désormais régulièrement. Summary: The World Health Organisation (WHO) recommends supplying oxygen in developing countries by concentra¬tors because cylinders pose considerable logistic and financial problems. This technology was employed to treat children in a hospital in Ndioum, Senegal, who met the WHO oxygenation criteria. There were clear clinical and financial benefits, but neither the nurses' knowledge of the various techniques of oxygen supply nor the maintenance service were satisfactory. The use of concentra¬tors should be encouraged in developing countries. A strategy including technical training, maintenance and monitoring should be adopted. Corrective actions were undertaken in Ndioum, and several concentrators are now being used on a regular basis.
Resumo:
Background: To evaluate outcomes after optimized laser in situ keratomileusis (LASIK) for astigmatism correction with flap created by a mechanical microkeratome or a femtosecond laser. Patients and Methods: In this retrospective study, a total of 102 eyes of 71 consecutive patients were enrolled undergoing optimized LASIK treatments using the Allegretto laser system (WaveLight Laser Technologie AG, Erlangen, Germany). A mechanical microkeratome for flap creation was used (One Use, Moria®) in 46 eyes (31 patients, spherical equivalent [SE] -4.44 D ± 2.4) and a femtosecond laser was used (LDV, Ziemer®) in 56 eyes (40 patients, spherical equivalent [SE] -3.07 D ± 3.3). The two groups were matched for inclusion criteria and were operated under similar conditions by the same surgeon. Results: Overall, the preoperative spherical equivalent was -9.5 diopters (D) to +3.37 D; the preoperative manifest astigmatism was between -1.5 D and -3.5 D. At 6 months postoperatively, the mean postoperative uncorrected distance visual acuity (UDVA) was 0.93 ± 0.17 (range 0.4 to 1.2) in the Moria group and 1.0 ± 0.21 (range 0.6 to 1.6) in the Femto group, which was statistically significant (p = 0.003). Comparing the cylinder power there was a statistical difference between the two groups (p = 0.0015). Conclusions: This study shows that the method of flap creation has a significant impact on postoperative astigmatism with a significantly better postoperative UDVA in the Femto group. These findings suggest that the femtosecond laser provides a better platform for LASIK treatment of astigmatism than the commonly used microkeratome.
Resumo:
Mise en perspective Le rein est un organe vital dont la fonction dépend en grande partie d'une perfusion tissulaire adéquate. Les techniques actuellement utilisées pour étudier la microcirculation rénale sont soit invasives soit très dispendieuses. L'échographie de contraste est une nouvelle technologie, non invasive, facile à réaliser au lit du malade et pour laquelle certaines techniques récemment présentées semblent permettre de quantifier la perfusion d'un organe. Une telle technique pourrait avoir des applications dans l'étude de l'insuffisance rénale aiguë. Buts de l'étude Notre étude vise à tester le potentiel de l'échographie de contraste pour détecter des modifications de la perfusion rénale, corticale et médullaire chez l'être humain. Plan de l'étude Nous avons étudié la microcirculation rénale par échographie de contraste chez 12 sujets sains. Les mesures ont été réalisées en baseline puis sous perfusion de doses croissantes d'angiotensine II (un puissant et spécifique vasoconstricteur rénal) et enfin après la prise orale d'un comprimé de Captopril (un puissant vasodilatateur rénal). Les valeurs obtenues par échographie de contraste ont été comparées à la perfusion globale rénale évaluée par la clairance du PAH, qui constitue le gold standard en physiologie rénale. Résultats principaux Le protocole a pu être réalisé sans complication. Les perfusions vasoactives ainsi que les différentes administrations de Sonovue ont été parfaitement tolérées. Les séquences vidéos ont été analysées par deux lecteurs et une bonne concordance a été trouvée. Nous avons trouvé une diminution statistiquement significative et dose dépendante de l'index de perfusion rénale lors de la perfusion d'angiotensine II: -45% (p<0.02) entre baseline et Ang II faible dose et -65% (p<0.01) entre baseline et Ang II à haute dose. Enfin, nous avons observé une hausse significative de cet indice après administration orale de Captopril (+35%, p>0.2). Ces changements étaient parallèles aux changements de flux plasmatique rénal mesurés par calcul de la clairance du PAH. Une corrélation moyenne mais significative (r=0.57, p=0.002) a été observée entre ces deux mesures. Conclusions et perspectives L'échographie de contraste est capable de détecter des modifications dans la microcirculation rénale induites par une perfusion d'angiotensine et ou une administration de Captopril. Il s'agit d'une technique rapide sensible et fiable qui pourrait participer à l'évaluation des patients souffrant d'insuffisance rénale aiguë. D'autres études sont nécessaires pour démontrer son utilité dans un contexte clinique.
Resumo:
La relation thérapeutique jour un rôle primordial dans le processus du rétablissement des patients. Il est important que les outils probants soient suffisamment bien ajustés pour faciliter le travail thérapeutique. Le projet Back to the patient, développé en collaboration étroite avec l'équipe de TECAPP technologies applications (www.tecapp.ch), vise à offrir des outils informatiques utilisables sur la tablette ou téléphone portable pour soutenir la relation thérapeutique dans le cadre de l'évaluation des besoins de santé et des soins.