283 resultados para Outil prédictif
Resumo:
La schizophrénie est une maladie chronique qui touche 1% de la population mondiale. Elle¦comporte des facteurs de risque génétiques et environnementaux. Leur interaction pendant le¦développement du cerveau mène aux déficits de la synchronisation neuronale et aux¦dommages cellulaires qui prédisposent l'individu à développer, à l'âge adulte, la¦schizophrénie (Kim Do et al.). Kim Do et al (2009) ont découvert qu'une anomalie génétique¦de la synthèse du glutathion (GSH) est responsable de la dérégulation redox qui mène au¦stress oxydatif qui, à son tour, est impliqué dans la pathogénèse de la schizophrénie pendant le¦développement du cerveau. Le GSH protège les cellules contre les radicaux libres produits par¦le stress oxydatif. En effet, les radicaux libres provoquent la peroxydation des lipides,¦l'oxydation des protéines et des lésions au niveau de l'ADN, et par conséquent, des¦dommages cellulaires.¦Le GSH est produit par l'enzyme clé GCL (glutamate-cystéine ligase). Le GCL est composé¦de deux sous-unités: GCL-M (sous-unité modulatrice) et GCL-C (sous-unité catalytique). Des¦polymorphismes des gènes de GCL-M et GCL-C ont été trouvé associés avec la¦maladie (Tosic et al., 2006 ; Gysin et al., 2007). Dans cette étude, on se focalisera sur le TNR¦GAG (répétitions de tri-nucléotides) du GCL-C. En effet, GCL-C possède sur son codon¦START des variances avec 7, 8 ou 9 répétitions GAG générant ainsi six génotypes différents:¦7/7, 7/8, 7/9, 8/8, 8/9 et 9/9. Dans deux cohortes, les génotypes 8/7, 8/8, 8/9 et 9/9, appelés¦génotype à haute risque (HR), se trouvent en plus grand nombre chez les patients tandis que¦les génotypes 7/7 et 7/9 (génotypes à bas risque (BR)) sont plus nombreux chez les sujets¦témoins (Gysin et al., 2007). En plus, les analyses des cultures de fibroblastes montrent que¦chez les génotypes HR, en comparaison avec ceux à BR, l'expression de protéine de GCL-C,¦l'activité enzymatique de GCL et le taux de GSH sont nettement plus bas.¦Cette étude se base sur le DIGS (diagnostic interview for genetic studies), un entretien semistructuré¦qui récolte des données psychopathologiques. Grâce à cet outil, nous pouvons¦comparer les données des sujets avec les génotypes HR versus BR. Plus précisément, on va se¦focaliser sur le chapitre des psychoses du DIGS chez les schizophrènes, en se posant la¦question suivante: « Est-ce qu'il y a une différence des phénotypes entre BR et HR ? » .¦La méthode de travail va se focaliser sur : (a) revue de la littérature, (b) l'analyse et la¦compréhension du DIGS et (c) l'analyse, l'interprétation et la synthèse des résultats¦statistiques du chapitre « psychose » du DIGS.¦Les résultats nous indiquent une différence significative entre les deux groupes pour les¦symptômes suivants : (a) les idées délirantes de persécution, (b) la durée de l'émoussement¦affectif et des affects inappropriés et (c) les croyances inhabituelles ou pensées magiques¦pendant la phase prodromique.¦Étant donné que cette étude se base sur un échantillon assez restreint, il faudrait la consolider¦avec un plus grands nombre de cas et il serait intéressant de le reproduire dans une autre¦cohorte. En conclusion, le travail peut ouvrir de nouvelles perspectives, surtout pour les¦symptômes mal traités ou pas traités par les traitements actuels.
Resumo:
Die Studie präsentiert erste explorative Auswertungen zu den Antworten von über 2600 Kandidierenden im Rahmen der Nationalratswahlen 2007 auf den umfangreichen Fragenkatalog der Online-Wahlhilfeplattform « smartvote ». Untersucht wird, wie die Fragen von der Gesamtheit der Kandidierenden beantwortet wurden, welche Themen umstritten waren und wie sich die Kandidierenden von den Gewählten unterscheiden. Schwergewichtig beschäftigt sich die Analyse mit den Kandidierenden der vier grössten Parteien SVP, FDP, CVP und SP sowie der Grünen. Welche Positionen nehmen sie ein ? Wie geschlossen präsentieren sie sich in den einzelnen Fragen ? Wo bestehen grosse Gemeinsamkeiten, wo erheblicheUnterscheide und wie sind die Möglichkeiten der einzelnen Parteien einzuschätzen, sich politisch zu profilieren ? Schliesslich wird überprüft, wie gut die Kandidierenden zu ihrer eigenen Partei passen und welche Aussagen sich über die Zusammenhänge zwischen der Abweichung von der Parteilinie und der Herkunft von erhofften Panaschierstimmen machen lassen. Lors des élections au Conseil national en octobre 2007, plus de 2600 candidats ont répondu au questionnaire concernant l'outil de soutien au vote en ligne « smartvote ». Ce cahier de l'IDHEAP présente les résultats d'une première étude exploratoire, basée sur les réponses des candidats au questionnaire de « smartvote ». Les auteurs analysent les questions et les thèmes controversés. Ils se sont également intéressés aux différences de prises de position entre les élus et les candidats. L'accent est mis sur les candidats des grands partis, soit l'UDC, le PRD, le PDC, le PS et les Verts. Quelles sont leurs positions politiques ? Quelles sont les questions qui divisent les candidats d'un parti ? Sur quels sujets sont-ils du même avis ? Où se trouvent les points communs entre les différents partis ? Quels sont les blocs politiques qui se forment ? Sur quels thèmes les partis politiques peuvent-ils se profiler ? A l'aide d'une analyse multivariée, l'étude tente aussi d'établir si les candidats sont membres du parti politique qui représente le mieux leurs convictions. Le chapitre final discute l'influence du vote par panachage sur le positionnement politique des candidats.
Resumo:
Cet article présente les implications particulières de deux expériences de terrain faisant émerger la problématique des apports et de l'utilité de l'anthropologie dans le domaine de la santé. Face aux attentes fortes des interlocuteurs de terrain (demandes d'expertise anthropologique dans le domaine de la prévention du suicide et dans celui de la recherche en soins palliatifs), les chercheuses se sont laissé en partie « détourner » en ne travaillant plus seulement « sur », mais « avec » leurs interlocuteurs. Tout en prenant en compte les risques d'instrumentalisation par le domaine médical, la réflexivité du chercheur face à son implication sur le terrain est considérée comme un outil indispensable pour préserver sa distance critique. Par ailleurs, ces expériences de terrain sont l'occasion de réfléchir à la possibilité de créer des échanges discursifs avec les interlocuteurs du terrain et de favoriser ainsi le changement social depuis l'intérieur.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
RESUME : Valganciclovir (Valcyte®) is an orally administered ester prodrug of the standard anticytomegalovirus (CMV) drug ganciclovir. This drug enabled an important reduction of the burden of CMV morbidity and mortality in solid organ transplant recipients. Prevention of CMV infection and treatment of CMV disease requires drug administration during many weeks. Oral drug administration is therefore convenient. Valganciclovir has been developed to overcome the poor oral availability of ganciclovir, which limits its concentration exposure after oral administration and thus its efficacy. This prodrug crosses efficiently the intestinal barrier, is then hydrolyzed into ganciclovir, providing exposure similar to intravenous ganciclovir. Valganciclovir is now preferred for the prophylaxis and treatment of CMV infection in solid organ transplant recipients. Nevertheless, adequate dosage adjustment is necessary to optimize its use, avoiding either insufficient or exaggerate exposure related to differences in its pharmacokinetic profile between patients. The main goal of this thesis was to better describe the pharmacokinetic and pharmacodynamic profile of valganciclovir in solid organ transplant recipients, to assess their reproducibility and their predictability, and thus to evaluate the current recommendations for valganciclovir dosage adjustment and the potential contribution of routine therapeutic drug monitoring (TDM) to patients' management. A total of 437 ganciclovir plasma concentration data from 65 transplant patients (41 kidney, 12 lung, 10 heart and 2 liver recipients, 58 under oral valganciclovir prophylaxis, 8 under oral valganciclovir treatment and 2 under intravenous ganciclovir) were measured using a validated chromatographic method (HPLC) developed for this study. The results were analyzed by non-linear mixed effect modeling (NONMEM). A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by GFR, with further differences between graft types and sex (CL/GFR = 1.7 in kidney, 0.9 in heart and 1.2 in lung and liver recipients) with interpatient variability (CV%) of 26% and interoccasion variability of 12%. Body weight and sex influenced central volume of distribution (V1 = 0.34 l/kg in males and 0.27 l/kg in females) with an interpatient variability of 20%. Residual intrapatient variability was 21 %. No significant drug interaction influenced GCV disposition. VGC prophylactic efficacy and tolerability were good, without detectable dependence on GCV profile. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of GCV profile after oral VGC in solid organ transplant recipients, routine TDM does not appear to be clinically indicated. However, GCV plasma measurement may still be helpful in specific clinical situations such as documentation of appropriate exposure in patients with potentially compromised absorption, or lack of response to CMV disease treatment, or under renal replacement therapy. RESUME : Le valganciclovir (Valcyte®) est un promédicament oral du ganciclovir qui est un anti-infectieux de référence contre les infections à cytomegalovirus (CMV). Cet antiviral a permis de réduire les effets délétères de cette infection jusqu'ici responsable d'une importante morbidité et mortalité chez les transplantés d'organe. La prévention et le traitement de l'infection à CMV sont donc nécessaires mais requièrent l'administration d'un agent antiviral sur une longue période. Un médicament administré par voie orale représente donc un avantage évident. Le valganciclovir a été développé dans le but d'améliorer la faible absorption orale du ganciclovir, et donc son efficacité. Cet ester valylique du ganciclovir traverse plus facilement la barrière gastro-intestinale, puis est hydrolysé en ganciclovir dans la circulation sanguine, produisant une exposition comparable à celle d'une perfusion intraveineuse de ganciclovir. De ce fait, le valganciclovir est devenu largement utilisé pour la prophylaxie mais aussi le traitement de l'infection à CMV. Néanmoins une utilisation optimale de ce nouveau médicament nécessite de bonnes connaissances sur son profil pharmacocinétique afin d'établir un schéma de dose adapté pour éviter tant une surexposition qu'une sous-exposition résultant des différences d'élimination entre les patients. Le but de cette thèse a été d'étudier le profil pharmacocinétique et pharmacodynamique du valganciclovir chez les transplantés d'organe ainsi que sa reproductibilité et sa prédictibilité. Il s'agissait d'apprécier de manière critique le schéma actuellement recommandé pour l'adaptation des doses de valganciclovir, mais aussi la contribution éventuelle d'un suivi des concentrations sanguines en routine. Un total de 437 taux sanguins de ganciclovir ont été mesurés, provenant de 65 patients transplantés d'organe (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques, 58 sous une prophylaxie orale de valganciclovir, 8 sous un traitement de valganciclovir et 2 sous un traitement intraveineux). Une méthode de chromatographie liquide à haute performance a été développée et validée pour cette étude. Les résultats ont été ensuite analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle à deux compartiments avec absorption de premier ordre a permis de décrire les données. La clairance systémique était principalement influencée par le débit de filtration glomérulaire (GFR), avec une différence entre les types de greffe et les sexes (CL/GFR = 1.7 chez les greffés rénaux, 0.9 pour les greffés cardiaques et 1.2 pour le groupe des greffés pulmonaires et hépatiques) avec un variabilité inter-individuelle de 26% (CV%) et une variabilité inter-occasion de 12%. Le poids corporel ainsi que le sexe avaient une influence sur le volume central de distribution (V1 = 0.34 l/kg chez les hommes et 0.27 l/kg chez les femmes) avec une variabilité inter-individuelle de 20%. La variabilité intra-individuelle résiduelle était de 21 %. Aucune interaction médicamenteuse n'a montré d'influence sur le profil du ganciclovir. La prophylaxie avec le valganciclovir s'est révélée efficace et bien tolérée. En conclusion, cette analyse souligne l'importance d'une adaptation de la dose du valganciclovir à la fonction rénale et au poids du patient. Au vu de la bonne reproductibilité et prédictibilité du profil pharmacocinétique du ganciclovir chez les patients transplantés recevant du valganciclovir, un suivi des concentrations sanguines en routine ne semble pas cliniquement indiqué. Néanmoins, la mesure des taux plasmatiques de ganciclovir peut être utile dans certaines situations particulières, comme la vérification d'une exposition appropriée chez des patients susceptibles d'absorption insuffisante, ou ne répondant pas au traitement d'une infection à CMV ou encore sous épuration extra-rénale. RESUME LARGE PUBLIC : Le valganciclovir est un précurseur capable de libérer du ganciclovir, récemment développé pour améliorer la faible absorption orale de ce dernier. Une fois le valganciclovir absorbé, le ganciclovir libéré dans la circulation sanguine devient efficace contre les infections à cytomégalovirus. Ce virus largement répandu est responsable de maladies insidieuses et parfois graves chez les personnes présentant une baisse des défenses immunitaires, comme les greffés d'organe recevant un traitement anti-rejet. Le ganciclovir est administré pendant plusieurs mois consécutifs soit pour prévenir une infection après la transplantation, soit pour traiter une infection déclarée. La facilité d'administration du valganciclovir par voie orale représente un avantage sur une administration du ganciclovir par perfusion, qui nécessite une hospitalisation. Toutefois, la voie orale peut être une source supplémentaire de variabilité chez les patients, avec un impact potentiel sur l'efficacité ou la toxicité du médicament. Le but de cette étude a été - de décrire le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline de la pharmacocinétique) - de définir les facteurs cliniques pouvant expliquer les différences de concentration sanguine observées entre les patients sous une posologie donnée - d'explorer les relations entre les concentrations du médicament dans le sang et son efficacité ou la survenue d'effets indésirables (dont l'étude relève de la discipline de la pharmacodynamie). Cette étude a nécessité le développement et la validation, d'une méthode d'analyse pour mesurer la concentration sanguine du ganciclovir, puis son application à 437 échantillons provenant de 65 patients transplantés d'organe solide (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques) recevant du valganciclovir. Les résultats des mesures effectuées ont été analysés à l'aide d'un outil mathématique afin d'élaborer un modèle du devenir du médicament dans le sang chez chaque patient et à chaque occasion. Cette étude a permis d'évaluer chez des patients recevant le valganciclovir, la vitesse à laquelle l'organisme absorbe, distribue, puis élimine le médicament. La vitesse d'élimination dépendait étroitement de la fonction rénale, du type de greffe et du sexe alors que la distribution dépendait du poids et du sexe du patient. La variabilité non expliquée par ces facteurs cliniques était modérée et vraisemblablement sans conséquence clinique évidente soit sur l'efficacité ou la tolérance, qui se révèlent très satisfaisantes chez les patients de l'étude. Les observations n'ont pas révélé de relation entre les concentrations de médicament et l'efficacité thérapeutique ou la survenue d'effets indésirables, confirmant que les doses relativement faibles utilisées dans notre collectif de patients suffisaient à produire une exposition reproductible à des concentrations adéquates. En conclusion, le profil (et par conséquent l'absorption) du valganciclovir chez les patients transplantés semble bien prédictible après une adaptation de la dose à la fonction rénale et au poids du patient. Un contrôle systématique des concentrations sanguines n'est probablement pas indiqué en routine, mais cette mesure peut présenter un intérêt dans certaines conditions particulières.
Resumo:
Le management stratégique est devenu un outil de gestion presque incontournable dans les organisations publiques, notamment du fait de la généralisation de la contractualisation et de gouvernance à distance. Bien sûr, gérer sur la base d'une stratégie afin d'atteindre des objectifs précis paraît fort raisonnable. Cependant, l'étude du fonctionnement contemporain des organisations publiques démontre que le management stratégique se limite bien souvent à des stratégies de contrôle, conduisant à une bureaucratisation accrue des organisations publiques en lieu et place d'une plus grande liberté managériale. Nous expliquons ce mécanisme en prenant pour exemple le secteur hospitalier suisse en pleine restructuration.
Resumo:
Introduction : Le traitement des entorses acromio-claviculaires (AC) est aujourd'hui encore controversé. Les luxations AC avec lésion du fascia delto-trapézoidale (grade IV, V et VI) sont généralement traitées par une chirurgie de stabilisation. A l'inverse les entorses sans luxation de la clavicule (grade I et II) sont traitées conservativement avec de bons résultats. Il reste une interrogation concernant le traitement des luxations AC sans lésion du fascia delto-trapézoidale (grade III). Le but de notre étude est d'évaluer les résultats du traitement chirurgical des entorses AC de grade III selon un score cinématique. Matériel et Méthode : 30 patients avec une entorse AC de grade III ont été opérés d'une stabilisation de la clavicule entre 2003 et 2011 par le service d'Orthopédie et traumatologie du CHUV. Tous ont été cliniquement évalués selon le score de Constant. L'évaluation cinématique a été effectuée à l'aide d'un iPod touch, fixé sur l'humérus. Cet outil de mesure, décrit et validé par l'EPFL, prend en considération l'accélération et la vitesse angulaire du membre supérieur pour 7 différents mouvements des deux bras. L'évaluation cinématique a été effectuée en comparant le côté opéré par rapport au côté sain selon 2 scores (RAV et P) provenant de ces variables. Les scores RAV et P sont calculés par l'application installée sur l'iPod touch, ils sont donnés en pourcentage par rapport à l'épaule saine. Nous avons défini un score de Constant relatif de plus de 60 et un score cinématique de plus de 75% comme satisfaisant. Résultats : Nous avons revus dix patients avec un recul moyen de 36 mois (6 à 72 mois) d'un âge moyen de 42 ans (27 à 62 ans). Le score de Constant moyen est de 75.9 ± 21.7. Le score P moyen est de 89.3% ± 23.4 et le score RAV moyen est de 91.8% ± 15.8 (tab.1). Quatre sujets obtiennent un excellent score de Constant pour le bras opéré, 2 sujets obtiennent un bon score et un sujet obtient un score moyen, tandis que 3 sujets obtiennent un mauvais score. Huit patients obtiennent un score cinématique satisfaisant alors que nous observons 2 résultats non satisfaisants. Les mauvais résultats tant cliniques que cinématiques ont été observés chez des patients travailleurs de force, nécessitant d'effectuer des mouvements de l'épaule au-dessus du niveau du buste. Discussion et Conclusion : Sur la base d'une évaluation clinique et cinématique, le traitement chirugical des entorses AC de grade III donne des résultats satisfaisants. Notre étude ne comportant pas de groupe contrôle et notre série étant non homogène, avec un nombre limité de sujet, nous ne pouvons conclure que le traitement chirurgical est le traitement le mieux adapté aux patients avec une entorse acromio-claviculaires de type III. Nous recommandons toutefois un traitement chirugical chez les patients actifs, et les patients exerçant un métier avec nécessité de mobilisation de l'épaule au dessus du buste. Un travail manuel lourd représente un facteur de mauvais pronostic.
Resumo:
Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.
Resumo:
Les cellules dendritiques sont des cellules du système immunitaire qui permettent d'instruire les lymphocytes T, autres cellules de ce système, pour mettre en place une réponse immunitaire adaptée afin de combattre et vaincre une infection. Ces cellules dendritiques vont reconnaître des motifs spécifiquement exprimés par des pathogènes par l'intermédiaire de récepteurs exprimés à leur surface. En détectant ces molécules, elles vont s'activer et subir diverses modifications pour pouvoir activer les lymphocytes T. Elles vont alors interagir avec les lymphocytes Τ et transférer les informations nécessaires pour que ces cellules s'activent à leur tour et produisent différentes protéines de façon à éliminer le pathogène. En fonction du type de pathogène, les informations transférées entre les cellules dendritiques et les lymphocytes seront différentes de manière à produire la réponse immunitaire la mieux adaptée pour supprimer l'élément infectieux. Dans le corps, les cellules dendritiques circulent continuellement afin de détecter les éléments étrangers. Quand elles reconnaissent une protéine étrangère, elles la phagocytent, c'est-à-dire qu'elles la mangent afin de pouvoir la présenter aux lymphocytes T. Mais quand elles phagocytent un élément étranger, elles peuvent également prendre des éléments du soi, comme par exemple quand elles phagocytent une cellule infectée par un virus. Les cellules dendritiques doivent alors être capables de différentier les molécules du soi et du non-soi de façon à ne pas induire une réponse en présentant un antigène du soi aux lymphocytes T. D'autant plus que lors de leur développement, les lymphocytes Τ qui sont capables de reconnaître le soi sont éliminés mais ce système n'est pas parfait et donc certains lymphocytes Τ auto-reactifs peuvent se trouver dans le corps. Il existe ainsi d'autres mécanismes en périphérie du site de développement pour inhiber ces lymphocytes Τ auto-reactifs. Ce sont les mécanismes de tolérance. Quand les lymphocytes Τ induisent une réponse aux antigènes du soi, cela résulte à des maladies auto-immunes. Dans mon projet de recherche, nous avons travaillé avec des lignées de cellules dendritiques, c'est-à-dire des cellules dendritiques semblables à celles que l'on peut trouver in vivo mais qui sont immortalisées, elles peuvent donc être cultiver et manipuler in vitro. Nous avons génétiquement modifiées ces lignées cellulaires pour qu'elles expriment des molécules immunosuppressives afin d'étudier comment induire une tolérance immunitaire, c'est-à-dire si l'expression de ces molécules permet d'éviter de générer une réponse immunitaire. Pour cela, nous avons utilisé des modèles murins de tumeurs et de maladies auto-immunes. Nous avons démontré que ces lignées de cellules dendritiques peuvent être un grand outil de recherche pour étudier les bénéfices de différentes molécules immuno-modulatrices afin d'induire une tolérance immunitaire à différents antigènes. - Les cellules dendritiques sont responsables de l'induction des réponses immunitaires adaptatives. Suite à une infection microbienne, les cellules dendritiques s'activent, elles induisent l'expression de molécules de costimulation à leur surface, sécrètent des cytokines et induisent la différentiation des cellules Τ effectrices et mémoires. De plus, les cellules dendritiques ont un rôle important dans l'induction et la maintenance de la tolérance immunitaire au niveau du thymus et en périphérie, en induisant l'anergie, la délétion ou la conversion des cellules Τ naïves en cellules régulatrices. Dans notre groupe, une nouvelle lignée de cellules dendritiques appelée MuTu a été crée par la culture de cellules dendritiques tumorales isolées à partir d'une rate d'une souris transgénique, dans laquelle l'expression de l'oncogène SV40 et du GFP sont sous le contrôle du promoteur CD1 le, et sont ainsi spécifiquement exprimés dans les cellules dendritiques. Ces nouvelles lignées appartiennent au sous-type des cellules dendritiques conventionnelles exprimant CD8a. Elles ont conservé leur capacité d'augmenter l'expression des marqueurs de costimulation à leur surface ainsi que le production de cytokines en réponse à des ligands des récepteurs Toll, ainsi que leur capacité à présenter des antigènes associés aux molécules du complexe majeur d'histocompatibilité (CMH) de classe I ou II pour activer la prolifération et la différentiation des lymphocytes T. En utilisant un système de transduction de lentivirus de seconde génération, ces nouvelles lignées de cellules dendritiques ont été génétiquement modifiées pour sur-exprimer des molécules immunosuppressives (IL-10, TGFP latent, TGFp actif, Activin A, Arginase 1, IDO, B7DC et CTLA4). Ces lignées permettent d'étudier de manière reproductible le rôle de ces molécules potentiellement tolérogènes sur les réponses immunitaires in vitro et in vivo. Ces lignées potentiellement tolérogènes ont été testées, tout d'abord, in vitro, pour leur capacité à inhiber l'activation des cellules dendritiques, à bloquer la prolifération des cellules Τ ou à modifier leur polarisation. Nos résultats démontrent qu'en réponse à une stimulation, la sur-expression des molécules costimulatrices et la sécrétion de molécules pro- inflammatoires est réduite quand les cellules dendritiques sur-expriment l'IL-10. La sur¬expression de TGFp sous sa forme active induit le développement de cellules régulatrices CD4+ CD25+ Foxp3+ et bloque la réponse CD8 cytotoxique tandis que la sur-expression de CTLA4 à la surface des cellules dendritiques inhibe une réponse Thl et induit des lymphocytes Τ anergiques. Ces lignées ont également été utilisées pour étudier l'induction de tolérance in vivo. Tout d'abord, nous avons étudié l'induction de tolérance dans un modèle de développement de tumeurs. En effet, quand les lignées tumorales sont transférées dans les lignées de souris C57BL/6, elles sont reconnues comme du non-soi du à l'expression de l'oncogène SV40 et du GFP et sont éliminées. Ce mécanisme d'élimination a été étudié en utilisant une lignée de cellules dendritiques modifiée pour exprimer la luciférase et qui a permis de suivre le développement des tumeurs par de l'imagerie in vivo dans des animaux vivants. Ces lignées de cellules dendritiques MuTu sont éliminées dans la souris C57BL/6 par les lymphocytes CD8 et l'action cytotoxique de la perforine. Après plusieurs injections, les cellules dendritiques sur-exprimant CTLA4 ou l'actif TGFp peuvent casser cette réponse immunitaire inhérente aux antigènes de la lignée et induire le développement de la tumeur dans la souris C57BL/6. Le développement tumoral a pu être suivi en mesurant la bioluminescence émise par des cellules dendritiques modifiées pour exprimer à la fois l'actif TGFp et la luciférase. Ces tumeurs ont pu se développer grâce à la mise en place d'un microenvironnement suppressif pour échapper à l'immunité en recrutant des cellules myéloïde suppressives, des lymphocytes CD4 régulateurs et en induisant l'expression d'une molécule inhibitrice PD-1 à la surface des lymphocytes CD8 infiltrant la tumeur. Dans un deuxième temps, ces lignées tolérogènes ont également été testées dans un modèle murin de maladies auto-immunes, appelé l'encéphalomyélite auto-immune expérimental (EAE), qui est un modèle pour la sclérose en plaques. L'EAE a été induite dans la souris par le transfert de cellules de ganglions prélevées d'une souris donneuse préalablement immunisée avec une protéine du système nerveux central, la glycoprotéine myéline oligodendrocyte (MOG) émulsifiée dans de l'adjuvant complet de Freund. La vaccination des souris donneuses et receveuses avec les cellules sur-exprimant l'actif TGFP préalablement chargées avec la protéine MOG bloque l'induction de l'EAE. Nous sommes actuellement en train de définir les mécanismes qui permettent de protéger la souris du développement de la maladie auto-immune. Dans cette étude, nous avons ainsi démontré la possibilité d'induire la tolérance in vivo et in vitro à différents antigènes en utilisant nos nouvelles lignées de cellules dendritiques et en les modifiant pour exprimer des molécules immunosuppressives. En conséquence, ces nouvelles lignées de cellules dendritiques représentent un outil pour explorer les bénéfices de différentes molécules ayant des propriétés immuno-modulatrices pour manipuler le système immunitaire vers un phénotype tolérogène. - Dendritic cells (DC) are widely recognized as potent inducers of the adaptive immune responses. Importantly, after microbial infections, DC become activated, induce co- stimulation, secrete cytokines and induce effector and memory Τ cells. DC furthermore play an important role in inducing and maintaining central and peripheral tolerance by inducing anergy, deletion or commitment of antigen-specific naïve Τ cells into regulatory Τ cells. In our group, stable MuTu DC lines were generated by culture of splenic DC tumors from transgenic mice expressing the SV40 large Τ oncogene and the GFP under DC-specific CDllc promoter. These transformed DC belong to the CD8a+ conventional DC subtype and have fully conserved their capacity to upregulate co-stimulatory markers and produce cytokines after activation with Toll Like Receptors-ligands, and to present Major Histocompatibility class-I or MHCII-restricted antigens to activate Τ cell expansion and differentiation. Using a second- generation lentiviral transduction system, these newly developed MuTu DC lines were genetically modified to overexpress immunosuppressive molecules (IL-10, latent TGFp, active TGFp, Activin A, Arginase 1, IDO, B7DC and CTLA4). This allows to reproducibly investigate the role of these potentially tolerogenic molecules on in vitro and in vivo immune responses. These potentially tolerogenic DC were tested in vitro for their ability to inhibit DC activation, to prevent Τ cell proliferation and to modify Τ cell polarization. Our results show that the upregulation of costimulatory molecules and the secretion of pro-inflammatory cytokines were reduced upon stimulation of DC overexpressing IL-10. The overexpression of active TGFP induced the development of CD4+ CD25+ Foxp3+ regulatory Τ cells and inhibited the cytotoxic CD8 Τ cell response as shown by using the OT-II Τ cell system whereas the surface expression of CTLA-4 on DC prevented the Thl response and prompted an anergic antigen-specific Τ cell response. These MuTu DC lines were also used in vivo in order to study the induction of tolerance. First we addressed the induction of tolerance in a model of tumorogenesis. The adoptively transferred tumor cell lines were cleared in C57BL/6 mice due to the foreign expression of SV40 LargeT and GFP. The mechanism of clearance of MuTu DC line into C57BL/6 mice was investigated by using luciferase-expressing DC line. These DC line allowed to follow, by in vivo imaging, the tumor development in living animals and determined that MuTu DC lines were eliminated in a perforin-mediated CD8 Τ cell dependent and CD4 Τ cell independent response. After multiple injections, DC overexpressing CTLA4 or active TGFp could break the immune response to these inherent antigens and induced DC tumorogenesis in wild type mice. The tumor outgrowth in C57BL/6 mice was nicely observed by double-transduced DC lines to express both luciferase and active TGFp. actTGFp-DC tumor was shown to recruit myeloid-derived suppressor cells, induce CD4+ CD25+ Foxp3+ regulatory Τ cells and induce the expression of the inhibitory receptor PD-1 on tumor- infiltrating CD8+ Τ cells in order to escape tumor immunity. Tolerogenic DC lines were also tested for the induction of tolerance in a murine model of autoimmune disease, the experimental autoimmune encephalitis (EAE) model for human multiple sclerosis. EAE was induced in C57BL/6 mice by the adoptive transfer of lymph node cells isolated from donor mice previously immunized by a protein specific to the central nervous system, the myelin oligodendrocyte glycoprotein (MOG) emulsified in the complete freund adjuvant. The vaccination of donor and recipient mice with MOG-pulsed actTGFP-DC line prevented EAE induction. We are still investigating how the active TGFP protect mice from EAE development. We generated tolerogenic DC lines inducing tolerance in vitro and in vivo. Thereby these MuTu DC lines represent a great tool to explore the benefits of various immuno-modulatory molecules to manipulate the immune system toward a tolerogenic phenotype.
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Summary Prevalence of type 2 diabetes is increasing worldwide at alarming rates, probably secondarily to that of obesity. As type 2 diabetes is characterized by blood hyperglycemia, controlling glucose entry into tissues from the bloodstream is key to maintain glycemia within acceptable ranges. In this context, several glucose transporter isoforms have been cloned recently and some of them have appeared to play important regulatory roles. Better characterizing two of them (GLUT8 and GLUT9) was the purpose of my work. The first part of my work was focused on GLUT8, which is mainly expressed in the brain and is able to transport glucose with high affinity. GLUT8 is retained intracellularly at basal state depending on an N-terminal dileucine motif, thus implying that cell surface expression may be induced by extracellular triggers. In this regard, I was interested in better defining GLUT8 subcellular localization at basal state and in finding signals promoting its translocation, using an adenoviral vector expressing a myc epitope-tagged version of the transporter, thus allowing expression and detection of cell-surface GLUT8 in primary hippocampal neurons and PC 12 cells. This tool enabled me to found out that GLUT8 resides in a unique compartment different from lysosomes, endoplasmic reticulum, endosomes and the Golgi. In addition, absence of GLUT8 translocation following pharmacological activation of several signalling pathways suggests that GLUT8 does not ever translocate to the cell surface, but would rather fulfill its role in its unique intracellular compartment. The second part of my work was focused on GLUT9, which -contrarily to GLUT8 - is unable to transport glucose, but retains the ability to bind glucose-derived cross-linker molecules, thereby suggesting that it may be a glucose sensor rather than a true glucose transporter. The aim of the project was thus to define if GLUT9 triggers intracellular signals when activated. Therefore, adenoviral vectors expressing GLUTS were used to infect both ßpancreatic and liver-derived cell lines, as GLUTS is endogenously expressed in the liver. Comparison of gene expression between cells infected with the GLUTS-expressing adenovirus and cells infected with a GFP-expressing control adenovirus ended up in the identification of the transcription factor HNF4α as being upregulated in aGLUT9-dependent manner. Résumé La prévalence du diabète de type 2 augmente de façon alarmante dans le monde entier, probablement secondairement à celle de l'obésité. Le diabète de type 2 étant caractérisé par une glycémie sanguine élevée, l'entrée du glucose dans les tissus depuis la circulation sanguine constitue un point de contrôle important pour maintenir la glycémie à des valeurs acceptables. Dans ce contexte, plusieurs isoformes de transporteurs au glucose ont été clonées récemment et certaines d'entre elles sont apparues comme jouant d'importants rôles régulateurs. Mieux caractériser deux d'entre elles (GLUT8 et GLUT9) était le but de mon travail. La première partie de mon travail a été centrée sur GLUT8, qui est exprimé principalement dans le cerveau et qui peut transporter le glucose avec une haute affinité. GLUT8 est retenu intracellulairement à l'état basal de façon dépendante d'un motif dileucine N-terminal, ce qui implique que son expression à la surface cellulaire pourrait être induite par des stimuli extracellulaires. Dans cette optique, je me suis intéressé à mieux définir la localisation subcellulaire de GLUT8 à l'état basal et à trouver des signaux activant sa translocation, en utilisant comme outil un vecteur adénoviral exprimant une version marquée (tag myc) du transporteur, me permettant ainsi d'exprimer et de détecter GLUT8 à la surface cellulaire dans des neurones hippocampiques primaires et des cellules PC12. Cet outil m'a permis de montrer que GLUT8 réside dans un compartiment unique différent des lysosomes, du réticulum endoplasmique, des endosomes, ainsi que du Golgi. De plus, l'absence de translocation de GLUT8 à la suite de l'activation pharmacologique de plusieurs voies de signalisation suggère que GLUT8 ne transloque jamais à la membrane plasmique, mais jouerait plutôt un rôle au sein même de son compartiment intracellulaire unique. La seconde partie de mon travail a été centrée sur GLUT9, lequel -contrairement à GLUT8 -est incapable de transporter le glucose, mais conserve la capacité de se lier à des molécules dérivées du glucose, suggérant que ce pourrait être un senseur de glucose plutôt qu'un vrai transporteur. Le but du projet a donc été de définir si GLUT9 active des signaux intracellulaires quand il est lui-même activé. Pour ce faire, des vecteurs adénoviraux exprimant GLUT9 ont été utilisés pour infecter des lignées cellulaires dérivées de cellules ßpancréatiques et d'hépatocytes, GLUT9 étant exprimé de façon endogène dans le foie. La comparaison de l'expression des gènes entre des cellules infectées avec l'adénovirus exprimant GLUT9 et un adénovirus contrôle exprimant la GFP a permis d'identifier le facteur de transcription HNF4α comme étant régulé de façon GLUT9-dépendante. Résumé tout public Il existe deux types bien distincts de diabète. Le diabète de type 1 constitue environ 10 des cas de diabète et se déclare généralement à l'enfance. Il est caractérisé par une incapacité du pancréas à sécréter une hormone, l'insuline, qui régule la concentration sanguine du glucose (glycémie). Il en résulte une hyperglycémie sévère qui, si le patient n'est pas traité à l'insuline, conduit à de graves dommages à divers organes, ce qui peut mener à la cécité, à la perte des membres inférieurs, ainsi qu'à l'insuffisance rénale. Le diabète de type 2 se déclare plus tard dans la vie. Il n'est pas causé par une déficience en insuline, mais plutôt par une incapacité de l'insuline à agir sur ses tissus cibles. Le nombre de cas de diabète de type 2 augmente de façon dramatique, probablement à la suite de l'augmentation des cas d'obésité, le surpoids chronique étant le principal facteur de risque de diabète. Chez l'individu sain, le glucose sanguin est transporté dans différents organes (foie, muscles, tissu adipeux,...) où il est utilisé comme source d'énergie. Chez le patient diabétique, le captage de glucose est altéré, expliquant ainsi l'hyperglycémie. Il est ainsi crucial d'étudier les mécanismes permettant ce captage. Ainsi, des protéines permettant l'entrée de glucose dans la cellule depuis le milieu extracellulaire ont été découvertes depuis une vingtaine d'années. La plupart d'entre elles appartiennent à une sous-famille de protéines nommée GLUT (pour "GLUcose Transporters") dont cinq membres ont été caractérisés et nommés selon l'ordre de leur découverte (GLUT1-5). Néanmoins, la suppression de ces protéines chez la souris par des techniques moléculaires n'affecte pas totalement le captage de glucose, suggérant ainsi que des transporteurs de glucose encore inconnus pourraient exister. De telles protéines ont été isolées ces dernières années et nommées selon l'ordre de leur découverte (GLUT6-14). Durant mon travail de thèse, je me suis intéressé à deux d'entre elles, GLUT8 et GLUT9, qui ont été découvertes précédemment dans le laboratoire. GLUT8 est exprimé principalement dans le cerveau. La protéine n'est pas exprimée à la surface de la cellule, mais est retenue à l'intérieur. Des mécanismes complexes doivent donc exister pour déplacer le transporteur à la surface cellulaire, afin qu'il puisse permettre l'entrée du glucose dans la cellule. Mon travail a consisté d'une part à définir où se trouve le transporteur à l'intérieur de la cellule, et d'autre part à comprendre les mécanismes capables de déplacer GLUT8 vers la surface cellulaire, en utilisant des neurones exprimant une version marquée du transporteur, permettant ainsi sa détection par des méthodes biochimiques. Cela m'a permis de montrer que GLUT8 est localisé dans une partie de la cellule encore non décrite à ce jour et qu'il n'est jamais déplacé à la surface cellulaire, ce qui suggère que le transporteur doit jouer un rôle à l'intérieur de la cellule et non à sa surface. GLUT9 est exprimé dans le foie et dans les reins. Il ressemble beaucoup à GLUT8, mais ne transporte pas le glucose, ce qui suggère que ce pourrait être un récepteur au glucose plutôt qu'un transporteur à proprement parler. Le but de mon travail a été de tester cette hypothèse, en comparant des cellules du foie exprimant GLUT9 avec d'autres n'exprimant pas la protéine. Par des méthodes d'analyses moléculaires, j'ai pu montrer que la présence de GLUT9 dans les cellules du foie augmente l'expression de HNF4α, une protéine connue pour réguler la sécrétion d'insuline dans le pancréas ainsi que la production de glucose dans le foie. Des expériences complémentaires seront nécessaires afin de mieux comprendre par quels mécanismes GLUT9 influence l'expression de HNF4α dans le foie, ainsi que de définir l'importance de GLUT9 dans la régulation de la glycémie chez l'animal entier.
Resumo:
Les ordinateurs de poche ont le potentiel de devenir un outil de travail indispensable pour le médecin praticien. De part une facilité d'utilisation toujours plus grande, un format ultra-portable, une grande capacité de stockage de l'information et de synchronisation à de multiples bases de données, ils permettent l'accès en tout temps et littéralement au lit du malade à une gamme complète de ressources médicales. Cet article se veut une lllustration des différentes possibilités d'utilisation de ces nouveaux outils, au travers de situations cliniques banales rencontrées par tout praticien.
Resumo:
Le projet "Bonnes pratiques de promotion de la santé des personnes âgées" vise à définir des recommandations pour promouvoir la santé des personnes âgées dans les différents cantons suisses adhérents au projet. Cinq instituts suisses ont ainsi été mandatés à produire un rapport faisant état de la situation relative à cinq domaines :- mesures visant à stimuler l'activité physique;- prévention des chutes;- participation du corps médical (médecins de famille);- conseils en matière de santé, manifestations, cours;- accès aux groupes-cibles et outils de recrutement.Dans le but de définir les bases pour une évaluation future des interventions recommandées, le présent rapport, sollicité par Promotion Santé Suisse, détaille le travail effectué avec les équipes responsables de chaque domaine pour élaborer une série de trois synthèses de leur travail, à savoir :- une analyse de la situation en question (problèmes constatés);- une théorie d'action définissant les objectifs intermédiaires et finaux à atteindre à partir des recommandations faites dans leur domaine;- une liste des indicateurs associés aux objectifs prioritaires.Ces synthèses ont été réalisées à l'aide du modèle de catégorisation des résultats de promotion de la santé et de la prévention (SMOC) un outil développé conjointement par les Instituts universitaires de médecine sociale et préventive de Berne et de Lausanne, en collaboration avec Promotion Santé Suisse. Les théories d'action ainsi élaborées ont ensuite été intégrées dans une théorie d'action globale correspondant à l'ensemble du projet " Bonnes pratiques de promotion de la santé des personnes âgées ". [P. 5]
Resumo:
RESUME : Dans de nombreux environnements professionnels, des travailleurs sont exposés à des bioaérosols, que ce soit des bactéries, champignons, virus ou fragments de microorganismes. Ces bioaérosols peuvent être responsables de maladies infectieuses (p.ex. légionellose), ou de maladies non infectieuses (touchant principalement les voies respiratoires). Cependant, pour une majorité des bioaérosols, les relations entre une exposition à une certaine dose et les effets sur la santé humaine sont peu connues. Ce manque de connaissances étant dû principalement à une absence de méthodes adéquates permettant de quantifier cette exposition. La real-time quantitative PCR (Q-PCR) est un outil basé sur la quantification du DNA dont le potentiel de quantification des bioaérosols dans des environnements professionnels n'a pas été exploré. Le but de ce travail est de développer une méthode de Q-PCR permettant de quantifier des bioaérosols - en particulier des bactéries - et d'appliquer ces techniques pour des mesures préventives sur les lieux de travail. Dans ce travail, la Q-PCR a été appliquée à 1a quantification de pathogènes, de groupes taxonomiques spécifiques et de la charge bactérienne totale dans des environnements de travail, stations d'épuration et élevages industriels de volailles. Nous avons montré que la Q-PCR : 1) est capable de quantifier des pathogènes difficilement cultivables si ceux-ci sont présents en concentration importante, 2) a le potentiel pour être un outil performant dans l'étude des communautés bactériennes présentes dans l'air d'environnements professionnels, 3) est aussi performante que le comptage total des bactéries par DAPI pour quantifier 1a charge bactérienne totale et est donc une alternative prometteuse aux techniques culture-dépendantes. La Q-PCR pourrait être utilisée afin d'établir des relations doses-réponses pour la charge bactérienne ; soit dans des populations de travailleurs hautement exposés (p.ex. les éleveurs de volailles), soit en exposant des cellules à des concentrations de bioaérosols mesurées par Q-PCR. ABSTRACT : Many workers are exposed to bioaerosols such as bacteria, fungi, viruses or fragments of microorganisms. These bioaerosols can be responsible of infectious (e.g. legionellosis) or non infectious diseases (mainly respiratory symptoms). However, for a majority of them, the relationship between exposure and effects on human health is not clearly established. This is mainly due to the lack of valid quantitative assessment methods. Real-time quantitative PCR (Q-PCR) is a tool based on the quantification of DNA, of which the potential for the quantification of bioaerosols in work environments has not yet been explored. The aim of this work was to develop a Q-PCR method permitting to quantify bioaerosols -mainly bacteria and to apply those techniques in occupational environments. In this work, Q-PCR was applied to the quantification of pathogens, of specific taxonomic groups and of the total bacterial load in two different occupational settings, namely wastewater treatment plants and poultry houses. We showed that Q-PCR : 1) is capable of quantifying difficult to cultivate pathogens; when they are present at high concentrations, 2) has the potential to be a useful tool for studying bacterial communities in the air of work environments, 3) is as efficient as epifluorescence for the quantification of total bacterial load, and is a promising alternative to the culture-dependent methods. Q-PCR could be used to establish doses-responses relationships for bacterial load, either in populations of highly exposed workers such as poultry farmers, or by exposing cells to concentrations of bioaerosols quantified with Q-PCR.