423 resultados para déjà vu
Resumo:
A clinicopathologic case of an 80-year-old male patient with a single cutaneous tumor on the upper part of the left eyelid is reported. It was a grayish and pigmented mass covered with a thick keratin layer, well circumscribed, and exophytic. After surgical removal, histopathology showed that the tumor had a papillomatous pattern and was growing under a thick layer of hyperkeratosis. It was a typical squamous cell papilloma. This tumor belongs to the benign eyelid tumor group and can be found on the eyelids of elderly people.
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
Rapport de synthèse : La présence de trois canaux d'eau, appelés aquaporines AQP1, AQP4 et AQP9, a été observée dans le cerveau sain ainsi que dans plusieurs modèles des pathologies cérébrales des rongeurs. Peu est connu sur la distribution des AQP dans le cerveau des primates. Cette connaissance sera utile pour des futurs essaies médicamenteux qui visent à prévenir la formation des oedèmes cérébraux. Nous avons étudié l'expression et la distribution cellulaire des AQP1, 4 et 9 dans le cerveau primate non-humain. La distribution des AQP4 dans le cerveau primate non-humain a été observée dans des astrocytes périvasculaires, comparable à l'observation faite dans le cerveau du rongeur. Contrairement à ce qui a été décrit chez le rongeur, l'AQPI chez le primate est exprimée dans les processus et dans les prolongations périvasculaires d'un sous-type d'astrocytes, qui est avant tout localisé dans la matière blanche et dans la glia limitans et qui est peut-être impliqué dans l'homéostasie de l'eau. L'AQPI a aussi été observée dans les neurones qui innervent des vaisseaux sanguins de la pie-mère, suggérant un rôle possible dans la régularisation de la vascularisation cérébrale. Comme décrit chez le rongeur, le mRNA et les protéines de l'AQP9 ont été détectés dans des astrocytes et dans des neurones catécholaminergiques. Chez le primate, des localisations supplémentaires ont été observées dans des populations de neurones placées dans certaines zones corticales. Cet article décrit une étude détaillée sur la distribution des AQP1, 4 et 9 dans le cerveau primate non-humain. Les observations faites s'additionnent aux data déjà publié sur le cerveau du rongeur. Ces importantes différences entre les espèces doivent être considérées dans l'évaluation des médicaments qui agiront potentiellement sur des AQP des primates non-humains avant d'entrer dans la phase des essais cliniques sur des humains.
Resumo:
Résumé : De nombreux auteurs ont rapporté des sérieux problèmes dans le traitement des patients suicidaires. Cette étude a examiné le traitement que des patients, ayant commis une tentative de suicide avant leur admission à un hôpital psychiatrique en Suisse, ont eu avant leur tentamen. 31 patients ont été admis à l'hôpital pendant l'année 2000, ce qui représente 36 tentamen et cela correspond à 6,5 ci/0 du nombre annuel d'admissions. Trois de ces patients ont été admis deux fois, et un patient a été admis trois fois. Des entrevues personnelles ont permis de rassembler l'information sur le traitement précédent l'hospitalisation : la médication et son dosage, à un mois et à deux semaines avant la tentative de suicide, et si le patient avait bénéficié d'une psychothérapie. En outre, des détails sur l'aspect psychosocial du tentamen et les moyens utilisés pour la tentative de suicide ont été enregistrés. Des médicaments psychotropes avaient été prescrits dans 24 situations à 21 patients, mais seulement dans 17 événements qui concernent 15 patients, des antidépresseurs avaient été prescrits avant l'hospitalisation. Des antipsychotiques et des benzodiazépines ont été prescrits dans 6 et 21 situations (8 situations avec des hypnotiques). Aucun des patients n'avait été traité avec du lithium, pourtant connu pour diminuer la suicidalité chez des patients à risque. Dans 19 situations, 16 patients avaient reçu la psychothérapie avant l'admission. Dans 32 situations, des médicaments psychotropes ont été employés pour le tentamen. En conclusion, ces résultats confirment le sous-traitement de patients qui commettent une tentative de suicide, comme déjà rapporté par d'autres auteurs. Bien que la majorité de patients ait été soignée par un psychiatre, aucune pharmacothérapie adéquate n'avait été prescrite, en particulier pour des patients dépressifs.
Resumo:
Introduction: Seulement 25-30% des patients avec syndrome coronarien aigu (SCA) atteignent les valeurs cibles de LDL-cholestérol (LDL-C) dans leur suivi. L'objectif de cette étude pré/post est de tester une alerte automatique centralisée pour améliorer les pratiques. L'alerte apparaît sur les feuilles de laboratoire pour tous les patients ayant une troponine >= 0,1 microg/l; elle précise notamment les recommandations en matière de profil lipidique (LDL-C cible) à atteindre. Méthode: Tout patient admis au CHUV pour un SCA avec troponine >= 0,1 microg/l était éligible. Durant les 2 phases de l'étude (du 23.11.2008 au 15.08.201), un bilan lipidique complet a été dosé à l'admission et à 3 mois. La phase 1 (pré) était observationnelle et le message d'alerte a été introduit pour la phase 2 (post). Résultats: Phase 1: 157 patients dont 56 (35%) étaient déjà traités par une statine: 114 hommes (âge moyen 62 ans) et 43 femmes (73 ans). LDL-C moyen: 3,4 ± 1,0 mmol/l à l'admission et 2,4 ± 0,8 mmol/l à 3 mois (p <0,001). Phase 2: 140 patients dont 42 (30%) étaient déjà traités par une statine: 116 hommes (62 ans) et 24 femmes (67 ans). LDL-C moyen: 3,4 ± 1,1 mmol/l à l'admission et 2,2 ± 1,0 mmol/l à 3 mois (p <0,001). 66 % (104 patients) atteignent un LDL-C cible < = 2,6 mmol/l à 3 mois lors de la phase 1, versus 78% (110 patients) lors de la phase 2 (p = 0,2). Les patients déjà sous statine à l'admission ont une faible diminution du LDL-C à 3 mois (de 2,8 à 2,5 mmol/l phase 1, p <0,05; de 2,5 à 2,6 mmol/l phase 2, p = 0.2), alors que les patients chez qui une statine est introduite à l'admission ont une baisse significative et plus importante du LDL-C à 3 mois (de 3,8 à 2,3 mmol/l phase 1, p <0,001; de 3,7 à 2,1 mmol/l phase 2, p <0,001) que les patients déjà sous statine au préalable. Conclusion: La phase observationnelle montre un taux élevé de patients atteignant un LDL-C cible à 3 mois. L'introduction d'une alarme automatique centralisée n'a pas permis d'améliorer ces résultats. Par contre, les patients arrivant à l'hôpital avec un SCA et étant déjà sous statine devraient avoir une intensification de leur traitement.
Resumo:
Problématique : L'insertion vélamenteuse du cordon ombilical est reportée dans environ 1% des grossesses uniques et semble associée à de sévères complications obstétricales. Mais l'étude de cette insertion reste encore lacunaire en ce qui concerne les grossesses gémellaires. Depuis quelques années, ces dernières sont en augmentation et doivent être considérées comme des grossesses à risque. En effet, les jumeaux occupent une place toujours plus importante dans les unités de néonatologie, du fait de la morbidité particulière de ces grossesses. Ces dernières peuvent de plus s'accompagner d'autres anomalies qui peuvent influencer la croissance des jumeaux déjà prétérités par rapport aux bébés uniques. Parmi celles-ci, l'insertion vélamenteuse du cordon. Existe-il une association entre grossesse gémellaire et insertion vélamenteuse ? Quelles seraient les conséquences de ce type d'insertion sur l'évolution de la grossesse ?¦Objectifs : Evaluer l'incidence de la survenue d'une insertion vélamenteuse du cordon ombilical dans les grossesses gémellaires par rapport aux grossesses uniques et la différence de cette incidence entre placentas monochoriaux et bichoriaux. Analyser les conséquences majeures qui peuvent lui être associées.¦Méthode : Analyse rétrospective de tous les placentas de grossesses gémellaires reçus pour examen à l'institut universitaire de pathologie anatomique (IUPA) de Lausanne entre janvier 2000 et septembre 2010, ainsi que du suivi périnatal des enfants issus de ces grossesses.¦Résultats : 722 placentas issus de grossesses gémellaires ont été reçus et analysés à l'IUPA. L'insertion vélamenteuse du cordon est rencontrée dans plus de 17% des grossesses gémellaires. Elle représente plus de 9% de toutes les insertions lors de ces grossesses. Elle est retrouvée dans 35% des cas lorsque le placenta est monochorial et dans 10% des cas lorsque le placenta est bichorial.¦Notre étude a démontré une influence significative de l'insertion vélamenteuse sur l'âge gestationnel, le poids du placenta, la croissance foetale (poids > taille > PC), la durée d'hospitalisation et la mortalité. La monochorialité est le seul facteur de risque à avoir été mis en évidence.¦Conclusion : Avec l'augmentation de l'âge maternel et le recours de plus en plus fréquent aux traitements de fertilité, le nombre de grossesses gémellaires devrait s'accroitre dans les années à venir et, avec elles, le nombre d'insertions vélamenteuses du cordon. Cependant, le diagnostic d'une telle insertion ne peut être que suspecté lors d'un examen ultrasonographique en cours de grossesse. Il est donc difficile de l'identifier avant la naissance et ainsi de prévoir ses conséquences. Mais en étant conscient des complications éventuelles que peut engendrer cette insertion, nous serions plus à même d'y faire face.
Resumo:
Le "Chest wall syndrome" (CWS) est défini comme étant une source bénigne de douleurs thoraciques, localisées sur la paroi thoracique antérieure et provoquées par une affection musculosquelettique. Le CWS représente la cause la plus fréquente de douleurs thoraciques en médecine de premier recours. Le but de cette étude est de développer et valider un score de prédiction clinique pour le CWS. Une revue de la littérature a d'abord été effectuée, d'une part pour savoir si un tel score existait déjà, et d'autre part pour retrouver les variables décrites comme étant prédictives d'un CWS. Le travail d'analyse statistique a été effectué avec les données issues d'une cohorte clinique multicentrique de patients qui avaient consulté en médecine de premier recours en Suisse romande avec une douleur thoracique (59 cabinets, 672 patients). Un diagnostic définitif avait été posé à 12 mois de suivi. Les variables pertinentes ont été sélectionnées par analyses bivariées, et le score de prédiction clinique a été développé par régression logistique multivariée. Une validation externe de ce score a été faite en utilisant les données d'une cohorte allemande (n= 1212). Les analyses bivariées ont permis d'identifier 6 variables caractérisant le CWS : douleur thoracique (ni rétrosternale ni oppressive), douleur en lancées, douleur bien localisée, absence d'antécédent de maladie coronarienne, absence d'inquiétude du médecin et douleur reproductible à la palpation. Cette dernière variable compte pour 2 points dans le score, les autres comptent pour 1 point chacune; le score total s'étend donc de 0 à 7 points. Dans la cohorte de dérivation, l'aire sous la courbe sensibilité/spécificité (courbe ROC) est de 0.80 (95% de l'intervalle de confiance : 0.76-0.83). Avec un seuil diagnostic de > 6 points, le score présente 89% de spécificité et 45% de sensibilité. Parmi tous les patients qui présentaient un CWS (n = 284), 71% (n = 201) avaient une douleur reproductible à la palpation et 45% (n= 127) sont correctement diagnostiqués par le score. Pour une partie (n = 43) de ces patients souffrant de CWS et correctement classifiés, 65 investigations complémentaires (30 électrocardiogrammes, 16 radiographies du thorax, 10 analyses de laboratoire, 8 consultations spécialisées, et une tomodensitométrie thoracique) avaient été réalisées pour parvenir au diagnostic. Parmi les faux positifs (n = 41), on compte trois angors stables (1.8% de tous les positifs). Les résultats de la validation externe sont les suivants : une aire sous la courbe ROC de 0.76 (95% de l'intervalle de confiance : 0.73-0.79) avec une sensibilité de 22% et une spécificité de 93%. Ce score de prédiction clinique pour le CWS constitue un complément utile à son diagnostic, habituellement obtenu par exclusion. En effet, pour les 127 patients présentant un CWS et correctement classifiés par notre score, 65 investigations complémentaires auraient pu être évitées. Par ailleurs, la présence d'une douleur thoracique reproductible à la palpation, bien qu'étant sa plus importante caractéristique, n'est pas pathognomonique du CWS.
Resumo:
Dass der Weg der parlamentarischen Mitwirkung im Bereich der Aussenpolitik steinig werden sollte, widerspiegelte sich bereits in der Entstehungsgeschichte der Aussenpolitischen Kommissionen (APK). Diese haben zum heutigen Zeitpunkt unter anderem dafür zu sorgen, dass das Parlament seine Mitwirkungsrechte in auswärtigen Angelegenheiten frühzeitig und wirk¬sam wahrnehmen kann. Nebst verschiedensten Instrumenten auf Verfassungs- und Gesetzesebene steht den APK ein wichtiges Mitwirkungsinstrument zur Verfügung: die Information und Konsultation gemäss Art. 152 Parlamentsgesetz (ParlG). Seit Inkrafttreten dieser Bestimmung im Dezember 2003 offenbart sich jedoch, dass sich die praktische Umsetzung des Gesetzesartikels mit den damaligen Vorstellungen des Gesetzgebers anlässlich der Erarbeitung dieses parlamentarischen Instrumentes nicht deckt. Der Gesetzgeber wies seiner¬zeit auf das für die Umsetzung bedeutende Vertrauensverhältnis zwischen Bundesrat und Parlament hin. Allerdings beeinflussen nun Spannungen und Konkurrenz zwischen der Exekutive und der Legislative die Umsetzung von Art. 152 ParlG. Die vorliegende Arbeit versucht, die geschichtlichen Hintergründe, die Entstehung, den Sinn und Zweck sowie die Praxis von Art. 152 ParlG vor dem Hintergrund des erwähnten Spannungsfelds und im Zusammenspiel mit den weiteren Mitwirkungsinstrumenten im Bereich der Aussenpolitik darzulegen. Comme le montre déjà l'historique des Commissions de politique extérieure (CPE), la participation du Parlement à la politique extérieure n'est pas dénuée d'obstacles. A l'heure actuelle, les CPE doivent notamment faire en sorte que le Parlement puisse faire valoir, en amont et avec efficacité, son droit de participation dans le domaine de la politique étrangère de la Suisse. Outre divers instruments figurant dans la Constitution et les lois, les CPE disposent d'un important moyen de participation: l'information et la consultation au sens de l'art. 152 de la loi sur le Parlement (LParl). Depuis l'entrée en vigueur de cette disposition en décembre 2003, il s'avère toutefois que l'application concrète de cet article de loi ne ré¬pond pas entièrement aux attentes du législateur lors de l'élaboration de cet instrument parlementaire. En effet, le législateur s'était alors basé sur la relation de confiance entre le Conseil fédéral et le Parlement, relation essentielle à la mise en oeuvre de cet article. La pratique montre cependant que la mise en oeuvre de l'art. 152 LParl est influencée par des tensions et par une relation de concurrence existant entre l'exécutif et le législatif. Le présent travail entend exposer le contexte historique de l'art. 152 LParl, son élaboration, son but et sa mise en oeuvre, tout en tenant compte des éléments de tension et des autres instruments permettant la participation en matière de politique extérieure.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
L'évaluation des résultats des arthroplasties totales du genou demande une évaluation du geste thérapeutique ou clinique, mais doit également tenir compte de l'impact de ce geste sur l'état de santé global du patient (somatique, psychologique, social) et intégrer son degré de satisfaction. La complexité croissante des instruments de mesure du suivi a de quoi décourager le chirurgien praticien déjà surchargé par son activité clinique quotidienne. L'apparition des scores, des études prospectives et des analyses statistiques, telles les courbes de survie, ont certainement permis une appréciation plus objective de nos résultats, tout en accroissant nos connaissances et en améliorant notre pratique quotidienne. La question aujourd'hui n'est plus de savoir si un suivi clinique de nos patients est utile, mais plutôt de choisir les bons instruments et de définir les buts de l'analyse tout en cherchant comment implanter cette démarche de manière réaliste dans nos pratiques. Les scores classiques, aussi imparfaits soient-ils, restent pour l'instant utiles. Largement diffusés à travers le monde, appliqués de manière prospective, ces outils de suivi orientés vers la clinique et la radiologie sont le fondement du suivi prospectif des implants. Au quotidien, ils permettent un suivi en temps réel des implants d'un service ou d'une institution. Cependant, leur faiblesse intrinsèque résidant dans l'inaptitude à saisir le point de vue du patient, il semble inéluctable d'y adjoindre des instruments psychométriques. Dans l'avenir, la recherche devrait se concentrer vers le développement d'outils adaptés, capables de cerner avec une plus grande précision l'attente des patients et de technologies accessibles à chaque praticien pour mesurer objectivement les capacités fonctionnelles de leurs patients avec plus d'acuité. Le développement de systèmes permettant une évaluation objective de la fonction quotidienne du patient revêt un intérêt tout particulier. Parallèlement, un effort doit être fait au niveau des sociétés spécialisées nationales et internationales pour harmoniser leurs protocoles de suivi.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
From our reading over the current year 2010 we have singled out 8 items which seem to us significant for the practice of medicine. Small doses of colchicine are useful in the treatment of gout. No efficacious treatment for muscular cramps can be recommended. A cervical collar can be usefully prescribed for the treatment of cervical radiculopathy. A single dose of azithromycin can be envisaged as a third line treatment of syphilis. High doses of vitamin D should not be prescribed for the prevention of fractures in elderly women because of the risks of falling. The wearing of bifocals can be associated with these risks. A clinical score is available to help with the diagnosis of thoracic pain. The NT-pro BNP is of limited use for the follow-up of patients suffering from heart failure.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
L'objet de cette étude est d'estimer la prévalence des douleurs du racis chez les jeunes hommes convoqués pour la première fois à leur recrutement en Suisse romande en 1985. On s'intéresse donc aux douleurs présentes au moment du recrutement, mais également aux douleurs déjà révolues, puisqu'on sait qu'il s'agit d'une affection qui récidive facilement. Ceci est donc considéré comme un facteur de risque. D'autres facteurs de risque tels que le sport et la profession exercée seront analysés afin d'estimer leur influence sur la prévalence des cervico-dorso-lombalgies. [Auteur, p. 7]