91 resultados para spectroscopie d’émission optique
Resumo:
Introduction La stabilisation dynamique de la colonne lombaire a été développée comme alternative à la spondylodèse pour les lombalgies chroniques dans l'optique de réduire le risque de dégénération du segment adjacent. Le système de neutralisation dynamique « Dynesys » produit par Zimmer (Suisse) est un des produits les plus populaires. Des études portant sur un suivi à moyen terme ont montré des taux de révision dans près de 30% des patients. Nous avons observé quelques cas d'infections tardives chez nos patients et avons décidé de les passer systématiquement en revue. La bactérie Propionibacterium acnés a été récemment identifiée comme cause d'infections à bas bruit de matériel prothétique. Matériels et méthodes Nous présentons une série consécutive de 50 implantations du système Dynesys. Les patients ont été suivis pendant une durée moyenne de 51 mois (0 - 91). Durant cette période, nous avons identifié 12 complications de type infectieuse et 11 complications de type mécanique nécessitant une ré-opération ou une ablation de matériel dans un collectif de 17 patients. Résultats Les infections de matériel se sont produites après une durée médiane de 52 mois (2-77). Les germes trouvés étaient Propionibacterium acnés dans 7 patients sur 11 (seul η = 4 ou en combinaison η = 3). La présentation clinique associe des douleurs nouvelles ou en augmentation et, à la radiologie conventionnelle, un descellement des vis. Cependant, 73.5% des patients présentent, à des degrés divers, des signes radiologiques de descellements sans avoir de symptômes d'infection. Conclusion Le haut taux d'infections tardives avec des germes peu virulents ainsi que la fréquence des signes de descellements de vis constatés nous amènent à suspecter un défaut d'intégration au niveau de l'interface entre l'os et les vis. Les chirurgiens devraient être attentifs à ces signes et exclure activement une infection chez les patients présentant des douleurs nouvelles (ou en augmentation) en combinaison de signes de descellement radiologiques. Une attitude agressive de révision chirurgicale est recommandée dans ces cas.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
Contexte : Les étudiants de 4° année des études de médecine à la faculté de biologie et de médecine de Lausanne bénéficient d'un enseignement des habiletés à la communication médecin-malade, ayant recours à un patient simulé joué par un comédien. But : Évaluer la pertinence de cette méthode active dans l'optique de renforcer cet enseignement dans le curriculum. Méthodes : Un questionnaire demande aux étudiants d'apprécier leurs apprentissages, ainsi que le dispositif d'enseignement. Un autre questionnaire évalue les compétences de l'étudiant qui mène l'entretien par l'étudiant lui-même (étudiant actif), par les étudiants observateurs, par l'enseignant et par le patient simulé. Résultats : Ce dispositif d'enseignement est apprécié des étudiants et permet aux étudiants qui ont mené l'entretien et aux étudiants observateurs d'en tirer un bénéfice. Les étudiants actifs ont tendance à évaluer leurs compétences d'entretien plus négativement que ne le font l'enseignant, le comédien et les étudiants observateurs .Conclusion : Ce dispositif d'enseignement est perçu comme pertinent par l'ensemble des participants, mais devrait être renforcé pour donner à chaque étudiant l'occasion de participer activement à l'entrevue simulée. -- Context: 4th year medicine students at the Faculty of Biology and Medicine of Lausanne were taught to develop patient-doctor communication skills, using a simulated patient played by an actor. Objective: To assess the relevance of this active method in the perspective of reinforcing this teaching approach in the curriculum. Method: This new form of teaching was assessed by questionnaires filled by all participants, i.e. students involved in the communication (active student), students who were bystanders (observer students), the tutor, as well as the actor. Results: This teaching approach was appreciated from all students, active and observer, allowing them to gain benefit from the interview on communication skills acquirement. The active students assessed their communication skills more negatively than did the teacher, the actor and the observer students. Conclusion: This teaching method seems to be relevant for all participants and should be reinforced to give the opportunity for each student to participate as an active student.
Resumo:
Ce travail décrit une méthode optique pour établir l'ordre chronologique de la séquence entre les impressions électrophotographiques (imprimantes laser et photocopieurs) et les signatures apposées au stylo à bille, sans croisement. Les auteurs ont utilisé un microscope optique avec des grossissements allant de 100 à 500 fois qui permettent de distinguer l'apparence des microparticules de toner selon qu'elles se situent au-dessus ou au-dessous de l'encre de stylo à billes. Les tests à l'aveugle ont montré un taux de réussite de 100 % permettant ainsi de valider les résultats proposés par Aginsky (2002).
Resumo:
Cet article s'inscrit dans la lignée de précédents travaux visant à rapprocher l'entrepreneur schumpétérien et le surhumain nietzschéen. Les deux partagent une créativité pouvant s'interpréter comme l'extériorisation d'un surcroît de force qui, dans l'optique nietzschéenne, s'assimile à la source extra-morale de l'accrois- sement de la vie. Reste à savoir si le cadre dans lequel ils évoluent est le même. Au-delà d'une approche historique du cycle de la conjoncture, notre hypothèse est que l'approche philosophique d'un cycle du devenir s'avère être féconde pour une interprétation enrichie du cycle de la conjoncture, complétant et prolongeant ainsi notre interprétation du surhumain et de l'entrepreneur. Abstract: This article is in line with previous works aiming to analyse together Schumpeter's entrepreneur and Nietzsche's superhuman. Both share a creativity that can be interpreted as the externalization of an extra force. The latter, through Nietzsche's perspective, is very close to the extra-moral source of the increase of life. But what we have not analysed yet, is the context in which each of
Resumo:
Résumé La plupart des cellules issues du sang ont une durée de vie limitée. Dans les cellules somatiques humaines, y incluant les lymphocytes T, la taille des télomères diminue progressivement à chaque division cellulaire, pouvant aboutir à des instabilités chromosomiques. L'expression ectopique du gène de la transcriptase réverse de la télomérase (hTERT) dans les cellules restaure l'activité de la télomérase, et permet un rallongement de leur vie réplicative. Malgré l'absence de signes caractéristiques de transformation, nous ne savons pas encore si les cellules somatiques qui surexpriment hTERT sont physiologiquement indiscernables des cellules normales. Certaines études récentes proposent que la télomérase joue plusieurs rôles additionnels dans d'autres phénomènes biologiques tels que la réparation de l'ADN, la survie et la croissance des cellules. Dans notre étude, nous avons utilisé des clones issus de lymphocytes T cytotoxiques surexprimant la télomérase afin d'étudier les mécanismes moléculaires qui règlent leur prolifération et leur sénescence. Nous avons montré que les «jeunes » cellules T exprimant ou non hTERT révèlent des taux de croissance identiques suite à des réponses de stimulation induites par des mitogènes. De plus, aucun changement global dans leur expression des gènes n'a pu être mis en évidence. Curieusement, nous avons observé des réponses réduites dans la prolifération des cellules transduites avec la télomérase qui présentaient une élongation des télomères et une durée de vie prolongée. Ces cellules, malgré le maintien d'un niveau élevé de l'expression de gènes impliqués dans la progression du cycle cellulaire, ont également montré une expression accrue de plusieurs gènes trouvés en commun avec nos lymphocytes T vieillissants n'exprimant pas de télomérase. En particulier, les cellules ayant une durée de vie prolongée grâce à l'expression de la télomérase accumulaient également certains inhibiteurs du cycle cellulaire tels que p16Ink4a et p21Cip1, associés à l'arrêt de la croissance cellulaire. En résumé, nos résultats indiquent la présence fonctionnelle de mécanismes alternatifs pouvant contrôler la croissance réplicative de ces cellules; ils sont donc encourageants dans l'optique d'une utilisation à moindre risque de lymphocytes T «immortalisés » à des fins thérapeutiques pour traiter les tumeurs malignes ou les infections. Summary Most mature blood cells have a finite life span. In human somatic cells, including T lymphocytes, telomeres progressively shorten with each cell division eventually leading to chromosomal instability. Ectopic expression of the human telomerase reverse transcriptase (hTERT) gene in cells restores telomerase activity and results in the extension of their replicative life span. Despite lack of transformation characteristics, it is yet unknown whether somatic cells that over-express telomerase are biologically and physiologically indistinguishable from normal cells. Recent data suggest that telomerase might mediate additional functions in DNA repair, cell survival and cell growth. Using CD8+ T lymphocyte clones over-expressing telomerase we investigated the molecular mechanisms that regulate T cell proliferation and senescence. Here we show that early-passage T cell clones transduced or not with hTERT displayed identical growth rates upon mitogenic stimulation and no marked global changes in gene expression. Surprisingly, reduced proliferative responses were observed in hTERT-transduced cells with elongated telomeres and extended life span. These cells, despite maintaining high expression level of genes involved in cell cycle division and progression, also showed increased expression of several genes associated with normal aging T lymphocytes. In particular, late passage T cells over-expressing telomerase accumulated the cyclin-dependent inhibitors p16INK4a and p21CIP1 that have largely been associated with in vitro growth arrest. Whether tumor-reactive CD8+ T cells that ectopically express telomerase could now be used for adoptive transfer therapy in cancer patients remains unclear at this point. Nevertheless, our results regarding the safe and effective use of hTERT-transduced lymphocytes are encouraging, since they indicate that alternative growth arrest mechanisms such as p 16 and p21 are still functional in these cells and regulate to some extend their growth potential.
Resumo:
L'index de consommation du glucose, SUV pour standardized uptake value, est largement utilisé en tomographie par émission de positons (TEP) pour quantifier la concentration relative de [18F]2-fluoro-2-désoxy-D-glucose (18F-FDG) dans les tissus. Cependant, cet indice dépend de nombreux facteurs méthodologiques et biologiques et son utilisation fait débat. Il est donc primordial d'instaurer un contrôle qualité régulier permettant d'assurer la stabilité de la mesure des indices quantitatifs. Dans cette optique, un fantôme spécifique avec inserts cylindriques de différentes tailles a été développé. L'objectif de cette étude est de montrer la sensibilité et l'intérêt de ce fantôme. Méthodes. - La sensibilité du fantôme a été étudiée à travers la mesure des SUV et des coefficients de recouvrement (RC). Plusieurs méthodes de mesure ont été utilisées. Les données ont été reconstruites en utilisant les algorithmes de routine clinique. Nous avons étudié la variation des RC en fonction de la taille des cylindres et le changement relatif de fixation, en utilisant des activités différentes. Le fantôme a ensuite été testé sur l'appareil d'un autre centre. Résultats. - Pour toutes les méthodes de mesure, une forte variation des RC avec la taille des cylindres, de l'ordre de 50 %, a été obtenue. Ce fantôme a également permis de mesurer un changement relatif de fixation qui s'est révélé être indépendant de la méthode de mesure. Malgré un étalonnage des deux systèmes TEP/TDM, des différences de quantification d'environ 20 % ont subsisté. Conclusion. - Les résultats obtenus montrent l'intérêt de ce fantôme dans le cadre du suivi des mesures quantitatives.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Evaluation in vitro de la réactivité des particules fines et ultrafines : rapport scientifique final
Resumo:
Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.
Resumo:
Fin assemblage entre démarches théoriques et empiriques, l'ouvrage illustre les logiques sous-jacentes à la mondialisation du marché des footballeurs. Il présente des informations de première main sur le fonctionnement des réseaux de transfert, collectées par l'auteur au cours de dix années de recherches menées en Europe et en Afrique. Des données statistiques inédites, élaborées par l'Observatoire des footballeurs professionnels, et de nombreuses illustrations cartographiques rendent la lecture particulièrement agréable. L'analyse des réseaux et circuits migratoires des footballeurs permet de saisir le rôle décisif joué par de nombreux intermédiaires dans le développement d'un marché global de talents. L'ouvrage dévoile la manière dont agents, dirigeants de clubs et spéculateurs privés investissent sur des joueurs dans l'optique de mettre en place des chaînes de transferts à valeur ajoutée. Ce processus est exemplifié à travers l'étude du cas des footballeurs africains
Resumo:
The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux
Resumo:
Compte rendu de l'exposition « Game Story. Une histoire du jeu vidéo » qui s'est tenue au Grand Palais à Paris du 10 novembre 2011 au 9 janvier 2012, envisagée à partir du champ de l'histoire et de la théorie du cinéma en termes de discours historique sur un « nouveau média » ainsi que dans une optique intermédiale.
Resumo:
Le projet s'intéresse aux socialisations des jeunes cyclistes sur route dans la phase de la carrière où ils deviennent des espoirs nationaux. Pour certains, cela correspond au passage d'une structure sportive amateur de haut niveau vers une équipe professionnelle. Cette phase semble constituer un moment clé de la consommation de produits dopants. Ces espoirs sont exposés à un nouvel environnement et une nouvelle logique professionnelle s'impose à eux, avec ses espoirs de carrière et de profits et ses risques. Ils sont confrontés à de nouveaux groupes sociaux avec lesquels s'établit un système d'interactions. Avec le temps, ces groupes vont notamment inculquer aux jeunes coureurs de nouvelles normes en matière de santé, de fatigue, d'expériences, d'éthique et d'entraînement.Il s'agit plus particulièrement d'observer les modes de socialisation des jeunes espoirs du cyclisme pour comprendre comment s'immiscent les pratiques de dopage dans les biographies des sportifs. Dans une optique de prévention, ce travail se propose d'étudier les effets de la socialisation. Comme le souligne H. Becker (1985), la déviance est le fruit d'un acte collectif. Il s'agit alors de comprendre comment, au contact de divers groupes encadrants (pairs, entraîneurs, dirigeants, médecins), les savoir-faire mais aussi les normes, les valeurs se construisent au cours de la phase de socialisation professionnelle. Il est important de comprendre les effets des interactions entre ces groupes et le jeune espoir. Cette socialisation semble correspondre à l'inculcation d'une culture cycliste qu'il s'agira de décrire en prenant en compte deux formes de transmission des normes : une explicite, à certains moments de la journée, où sont abordées les techniques de course, les tactiques, les modes d'entraînement et une implicite, pendant laquelle sont diffusées des valeurs qui conduisent le sportif à faire le choix du dopage. Dans le cas du dopage, nous nous intéresserons notamment aux normes de santé, d'éthique, aux conceptions de la pratique sportive en adéquation avec le suivi médical pendant la phase amateur puis néo-professionnelle. La formation, ou transformation, de ces représentations sera appréhendée à travers les interactions entre coureurs et encadrement lors des différents moments de leur quotidien. Il s'agira également d'étudier le cadre social de ces interactions. A partir des récits de vie collectés, nous essayerons de déterminer les moments où les choix s'opèrent et nous y analyserons les conduites.L'acquisition des représentations associées au dopage est le produit du double mouvement de l'action sociale des individus et des effets des structures organisationnelles et institutionnelles. En conséquence, nous nous intéresserons également à l'influence des différents dispositifs tels que la famille, l'école, le club, la structure médicale, la fédération nationale, sur les représentations des coureurs.Cette étude reposera sur une analyse comparée des cyclistes belges, français et suisses. Les carrières seront analysées à partir d'entretiens semi-directifs (75) auprès de (1) jeunes athlètes (18-23 ans) qui vivent les phases de professionnalisation, (2) d'anciens cyclistes ayant vécu les normes de socialisation du milieu et (3) des acteurs clefs de l'organisation des différents dispositifs (entraîneurs, dirigeants, médecins). Notre démarche méthodologique s'adosse à celles déjà expérimentées dans des travaux antérieurs (notamment, Brissonneau, 2003).
Resumo:
RESUME Pour favoriser sa croissance en condition limitante de fer, le pathogène opportunistePseudomonas aeruginosa PAO1 sécrète un sidérophore nommé pyochéline. Celui-ci estproduit par un mécanisme de "thiotemplate", à partir de l'acide salicylique et de deuxmolécules de cystéine, et existe sous forme d'une paire de diastéréoisomèresinterconvertibles: pyochéline I (4'R, 2?R, 4?R) et pyochéline II (4'R, 2?S, 4?R). Deprécédentes études ont montré que la pyochéline induit l'expression de ses propres gènes debiosynthèse via le régulateur transcriptionnel PchR qui appartient à la famille AraC/XylS. Lapyochéline est donc non seulement un sidérophore mais également une molécule signale.Nous avons découvert que Pseudomonas fluorescens CHA0 sécrète une pyochélinestéréochimiquement distincte de celle produite par P. aeruginosa. Ce nouveau sidérophorefavorise la croissance de P. fluorescens en condition limitante en fer et induit l'expression deses propres gènes de biosynthèse. Cependant, cette molécule n'est pas reconnue commesidérophore ou molécule signale par P. aeruginosa. Réciproquement, la pyochéline estincapable de stimuler la croissance et la signalisation chez P. fluorescens. La structure dusiderophore de P. fluorescens CHA0 a été déterminée comme étant un antipode optique de lapyochéline et nommé énantio-pyochéline.La stéréospécificité de l'induction des gènes de biosynthèse de la pyochéline/énantiopyochélineest basée sur la stéréospécificité des protéines PchR de P. aeruginosa et P.fluorescens envers leur sidérophores-ligands respectifs. PchR est fonctionnel chez l'espècehétérologue, mais uniquement en présence de son propre ligand. Les récepteurs spécifiquesdes sidérophores pyochéline/enantio-pyochéline ne sont pas indispensables à la signalisationmais sont essentiels à l'incorporation du fer et à la croissance en carence de fer. Laconstruction de protéines hybrides et tronquées a révélé que le domaine N-terminal de PchRest l'élément déterminant pour la spécificité de la protéine vis-à-vis de son ligand. SUMMARY : The siderophore pyochelin is produced by the opportunistic pathogen Pseudomonas aeruginosa PAO1 and promotes growth under iron limitation. Pyochelin is made by a thiotemplate mechanism from salicylate and two molecules of cysteine and exists as a pair of interconvertible diastereoisomers: pyochelin I (4'R, 2"R, 4"R) and pyochelin II (4'R, 2"S, 4"R). Pyochelin induces the expression of its biosynthesis and uptake genes via the transcriptional AraC/Xy1S family regulator PchR in a process termed pyochelin signaling. Pseudomonas fluorescens CHAO was found to make a stereochemically distinct pyochelin to P. aeruginosa. This siderophore promoted the growth of P. fluorescens under iron limitation and induced the expression of its biosynthesis genes but was not recognised as a siderophore or signaling molecule by P. aeruginosa. Reciprocally, pyochelin was unable to promote growth or signaling in P. fluorescens. The structure of the P. fluorescens CHAO siderophore was determined and found to be enantio-pyochelin, the optical antipode of pyochelin. Stereospecificity in induction of pyochelin/enantio-pyochelin biosynthesis genes was found to be due to stereospecificity of the homologous PchR proteins of P. aeruginosa and P. fluorescens towards their respective siderophore ligands. PchR was able to function in the heterologous species, but only if supplied with its native ligand. The pyochelin/enantiopyochelin receptors were not essential for signaling although both receptors are essential for iron uptake and growth under iron limitation. Construction of hybrid and truncated PchR proteins revealed that the N-terminal domain of PchR is responsible for siderophore recognition/stereospecificity.
Resumo:
La crise de l'Université de Genève en 2006, dont les conséquences entraîneront la démission du rectorat et inciteront les autorités politiques à réformer l'Université, est caractéristique des crises liées à la divulgation et à la gestion de l'information, situations dans lesquelles gestion et communication de crise ne peuvent pas être dissociées. Ce type de situations est de plus en plus fréquent et a surtout des conséquences importantes dans la confiance que peuvent avoir les citoyens par rapport aux institutions politiques et administratives, les conséquences matérielles ou les dommages à des personnes étant généralement très limités. Cette contribution, par l'analyse des publications de 3 quotidiens et d'un journal dominical, ainsi que des documents et communications officiels au cours de la période de crise et des mois suivants, vise principalement à mettre en évidence les caractéristiques et les erreurs liées à ce type de crises vu sous l'angle de la communication média. Die Krise der Universität Genf im Jahre 2006, welche den Rücktritt des gesamten Rektorats zur Folge hatte und die Universitätsreform durch die Behörden vorantrieb, weist die typischen Merkmale einer Krise auf, welche mit der Informationsverbreitung und deren Management verknüpft ist. Dies sind Situationen in welchen das Krisenmanagement und die Krisenkommunikation nicht voneinander getrennt werden sollten. Solche Ereignisse sind immer häufiger und können bedeutende Konsequenzen für das Vertrauen der Bürger und Bürgerinnen in die politischen Institutionen haben. Indessen sind materielle Auswirkungen oder personelle Schädigungen sehr beschränkt. Der vorliegende Beitrag ist eine Analyse dreier Tageszeitungen und einer Sonntagszeitung sowie offiziellen Dokumenten und Medienmitteilungen, welche während der Krise und einige Monate danach publiziert wurden. Der Bericht erläutert und unterstreicht, anhand einer medienkommunikativen Sichtweise, die Merkmale und Fehler, welche mit einer solchen Krise in Zusammenhang stehen.