159 resultados para Protection des victimes
Resumo:
Résumé Objectifs : Le but de ce travail est, dans un premier temps, de mettre en évidence les mécanismes qui gouvernent les rivalités d'usage concernant la ressource paysage, afin, dans un deuxième temps, de comprendre comment se résolvent ces différends. Il part du postulat central que l'existence de rivalités d'usage non apaisées nuit à la durabilité de la ressource. Trois types d'acteurs gravitant autour de la ressource paysage doivent être distingués -Les observateurs du paysage sont ceux qui utilisent directement les services fournis par la ressource (p. ex. les touristes « écologiques », les randonneurs, les amoureux de la nature ; dans les conflits, ils peuvent être représentés par les organisations de protection du paysage) ; -Les fournisseurs du paysage servent d'intermédiaires entre le paysage et les observa¬teurs ; ils utilisent le paysage pour attirer des clients ; ils monnayent l'accès au paysage (billet de transport, hôtels, restaurant panoramique) ; ils vendent des représentations du paysage ; -Les utilisateurs des ressources « primaires » (sol, eau, forêt...) ne se préoccupent pas de paysage : ils entretiennent une configuration particulière de ressources primaires qui fait naître chez l'observateur le sentiment qu'il contemple un paysage. Ces catégories analytiques ne sont pas hermétiques, car un même acteur peut se trouver dans plusieurs catégories à la fois. Cadre d'analyse : Sur la base de la typologie des acteurs présentée, il est possible de mettre en évidence six types de rivalités théoriques, chacune opposant entre eux des observateurs, fournisseurs et utilisateurs de ressources primaires. Dans une situation de rivalité, les différents acteurs mobilisent les droits qu'ils ont à disposition pour défendre leurs intérêts. Le cadre d'analyse des régimes institutionnels de ressources naturelles (RIRN) est utilisé afin de mettre en évi¬dence ces droits. Il permet de faire la différence entre le système régulatif de la ressource, qui fait référence aux phénomènes d'appropriation (à défaut de propriété, car le paysage n'entre pas facilement dans les canons définis par le code civil), et les politiques publiques, qui ré¬glementent ces phénomènes d'appropriation. Le cadre des RIRN a la prétention de tisser un lien entre l'économie institutionnelle des ressources naturelles, préoccupée avant tout par la question des droits sur les ressources, et une approche plus politologique, dont les politi¬ques publiques constituent l'objet d'étude. Résultats : Dans le contexte de trois études de cas (le val Baltschieder, la région d'Aletsch et le parc naturel régional de Chartreuse), les conflits paysagers ont été mis en évidence. Les acteurs en présence ont été identifiés, de même que les droits dont ils disposent pour protéger leurs intérêts. Ce travail a démontré que les rivalités entre observateurs (p. ex. surdensité de visi¬teurs), ainsi que celles entre observateurs et utilisateurs de ressources primaires ne trouvent pas de solution sans l'intervention d'une structure de gestion paysagère particulière. Cette dernière peut prendre différentes formes qui doivent toutefois respecter un certain nombre de critères développés dans le travail. Dans le contexte des études de cas, différents modèles d'organisation susceptibles de jouer ce rôle ont été mis en évidence. De telles organisations collectives constituent une des clés pour une gestion durable de la ressource paysage.
Resumo:
RESUME :Introduction. Les maladies cardiovasculaires représentent la première cause de mortalité dans les pays développés et l'insuffisance cardiaque (IC) est la plus fréquente. Suite à un infarctus, le coeur des patients subit un remodelage ventriculaire pouvant évoluer vers un état d'IC. L'IC se définit comme un état dans lequel le coeur n'est plus capable d'approvisionner suffisamment les organes et cet état s'accompagne souvent de troubles du rythme cardiaque. Le remodelage ventriculaire touche de nombreux gènes codant à la fois pour les voies métaboliques et pour des canaux ioniques favorisant ainsi l'apparition des arythmies responsables de la mort subite des patients atteints d'IC. Comprendre ce passage entre remodelage et IC est crucial afin de pouvoir un jour prévenir l'IC et les complications médicales qui l'accompagnent. Nous nous sommes intéressés aux canaux potassiques dépendants de l'ATP (KATP) car ces canaux ont la capacité de coupler le métabolisme de la cellule à son activité électrique. En effet, les canaux KATP s'ouvrent quand la charge énergétique (rapport ATP/ ADP) de la cellule chute. Dans les cardiomyocytes, l'ouverture des KATP induit une hyperpolarisation de la membrane cellulaire ce qui diminue indirectement la surcharge calcique et de ce fait préserve la cellule. Les canaux KATp sont formés de 4 sous-unités Kir6.x (Kir6.1 ou Kir6.2) formant le pore du canal associées à 4 sous-unités régulatrices SUR. Les propriétés électrophysiologiques ainsi que la sensibilité pharmacologique des canaux KATP dépendent de leur composition et seuls les canaux KATP formés par la sous-unité Kirô.l sont activés par le diazoxyde.Méthodes et résultats. Nous avons d'abord montré dans un modèle in vivo d'IC chez le rat adulte que les sous-unités Kir6.1 et SUR sont surexprimées dans ces conditions pathologiques. Par ailleurs, les cardiomyocytes issus des coeurs infarcis deviennent sensibles au diazoxyde reflétant la surexpression de Kir6.1. Les potentiels d'action qui sont prolongés dans l'IC et qui sont à l'origine d'arythmies majeures sont normalisés par l'ouverture des canaux KATp induite par le diazoxyde. Ainsi, l'ouverture pharmacologique des canaux KATp contribuerait à la cardio-protection. Dans une seconde partie, nous avons déterminé quels étaient les facteurs de transcription responsables de ce changement d'expression des sous-unités formant les KATP. Dans notre modèle, nous avons pu montrer que la surexpression de Kirô.l est due aux facteurs de transcription Fox03 et FoxF2 qui est aussi responsable de la surexpression des sous-unités SUR. Dans la dernière partie de ce travail, nous avons mis au point un modèle d'IC in vitro en cultivant les cardiomyocytes de rats adultes en présence d'angiotensine II (Angll) ou de TNFa. Ce modèle expérimental nous a non seulement permis de mettre en relation l'importance de L'AnglI et du TNFa sur le remodelage des canaux KATP mais aussi de développer un modèle in vitro présentant les mêmes caractéristiques que le modèle in vivo concernant le remodelage des KATP lors de l'IC. Ce dernier modèle expérimental ouvre des perspectives afin de mieux caractériser les voies de signalisation impliquées dans le remodelage des canaux KATp lors de l'IC.Conclusion. Les canaux KATp subissent un remodelage lors de l'IC et les résultats obtenus montrent le potentiel cardio-protecteur de ces canaux.ABSTRACT :Background and aim. Cardiovascular disease is the leading cause of death in developed countries and heart failure (HF) is the most common. Following myocardial infarction, the heart of the patient undergoes ventricular remodeling which may evolve toward a state of HF. HF is defined as a state in which heart is unable to supply enough blood to organs and this state is often accompanied by cardiac arrhythmias. Ventricular remodeling involves many genes coding for both metabolic enzymes and ion channels. Changes in ion channel expression can promote arrhythmias responsible for sudden death in patients with HF. A better understanding of the transition between remodeling and HF is crucial in order to prevent the complications associated to HF We were interested in ATP-dependent potassium channels (KATp) because they couple cell metabolism to electrical activity of the cell. Indeed, KATP channels open when the energy charge (ratio of ATP / ADP) of the cell collapses. In cardiomyocytes, the opening of KATP channels induces hyper- polanzation of the cell membrane which reduces calcium overload and thereby protects the cell. KATp channels are composed by 4 Kir6.x subumts (Kir6.1 or Kir6.2) forming the pore channel associated with 4 regulatory subunits SUR. The electrophysiological properties as well as pharmacological sensitivity of KATp channels depend on their composition and only KATP channels formed by Kir6.1 subunit are activated by diazoxide.Methods and results. Firstly, using an in vivo model of HF in adult rats, we showed that Kir6.1 and SUR subunits are overexpressed in HF. In addition, cardiomyocytes from post-infarction hearts became sensitive to diazoxide reflecting the overexpression of the Kir6.1 subunit. The opening of KATP by diazoxide tended to reduce the action potential duration (APD) which is extended in HF. This increase in APD is known to be a major source of arrhythmias during HF. Therefore, the opening of KATP channels by diazoxide would be cardio-protective. Secondly, we wanted to determine which transcription factors were responsible for this KATP remodeling. In our model of HF, we showed that overexpression of Kir6.1 is due to the transcription factors Fox03 and FOXF2 which is also responsible for SUR subunits overexpression. Thirdly, we developed an in vitro model of HF by cultivation of adult rat cardiomyocytes in the presence of angiotensin II (Angll) or TNFa. This model is very interesting not only because it underlines the importance of Angll and TNFa in KATp remodeling but also because this in vitro model presents the same KATP remodeling as the in vivo model of HF. These findings show that our in vitro model of HF opens up many possibilities to investigate more precisely the signaling pathways involved in remodeling of the KATP channels in HF.Conclusion. KATP channels undergo remodeling during HF and our results show the cardio¬protective potential of KATP channels in this disease.
Resumo:
En janvier 2006, l'institut universitaire de médecine légale a ouvert l'unité de médecine des violences qui offre une consultation médicolégale spécialisée dans la prise en charge des adultes victimes de violence. La consultation est assurée par des infirmières dont la formation et la supervision sont conduites par des médecins légistes. Une écoute, un examen clinique en vue d'établir la documentation médicolégale et une orientation sont proposés aux patients.
Resumo:
The vibration syndrome is an often unrecognized occupational neurovascular disease with a prevalence of more than 70% in certain high-risk occupations. Early recognition is crucial because continued exposure to vibration can lead to irreversible ischemic injury and loss of digits. Digital ischemia due to the vibration syndrome may be due to a vasospastic phenomenon, an organic microangiopathy or arterial thrombosis. Demyelinating neuropathy and carpal tunnel syndrome are often associated. Many pathophysiological mechanisms are implicated: hyperactivity of the central sympathetic nervous system, release of plasma endothelin-1 and loss of calcitonin-gene-related-peptide vasoregulation. Investigation tests, treatment and the European Community Directive for the protection of workers are also presented.
Resumo:
I. Introduction : A. Données du problème : En ce début de XXIe siècle, le nombre d'actions en justice visant à engager la responsabilité des autorités de surveillance des banques, à la suite de faillites bancaires, n'a cessé de croître. Ce contentieux s'inscrit dans une tendance générale de recherche des responsabilités des acteurs chargés du contrôle des entités économiques privées. Les autorités de surveillance bancaire ont-elles l'obligation de répondre, devant la justice, du dommage éventuellement causé dans l'exercice de leur mission et d'en assumer les conséquences financières? C'est ce que tentent d'établir les demandeurs, le plus souvent des déposants lésés, qui, malgré l'existence de mécanismes de garantie des dépôts, n'ont pu recouvrer l'intégralité des sommes déposées auprès de banques défaillantes. Les demandeurs agissent fréquemment en dernier ressort contre l'autorité de surveillance bancaire. Les carences alléguées des autorités de surveillance bancaire constituent les fondements de leurs actions en justice. Plusieurs facteurs peuvent expliquer l'augmentation de ce contentieux : ? La croissance des avoirs financiers. Au sein d'un paysage financier européen caractérisé par l'intégration et l'interdépendance de plus en plus poussées des économies nationales, volume et concentration des avoirs financiers n'ont cessé de croître. ? La formalisation des réglementations prudentielles. La surveillance des banques repose désormais sur un corps de règles détaillé et précis, au niveau national, européen et international. ? Les défaillances bancaires. De telles défaillances ont touché de nombreux Etats ces dernières années: la Bank of Credit and Commerce international (BCCI) dont la faillite a eu des répercussions internationales en 1991, l'établissement Barings au Royaume-Uni en 1995, le Crédit Lyonnais en France en 1992 ou la Spar- und Leihkasse Thun en Suisse en 1991. Cette tendance est cependant paradoxale puisque dans de nombreux Etats européens, comme au Royaume-Uni ou en Allemagne, les autorités de surveillance jouissent d'une protection juridique conférée par la loi, les préservant, théoriquement, de poursuites judiciaires intempestives. Dans d'autres pays, comme en France et en Suisse, c'est le droit général de la responsabilité de l'Etat qui est appliqué de manière restrictive par les juridictions compétentes. Les actions judiciaires devant les juges nationaux comportent également des aspects de droit européen. En effet, depuis 1993 un marché bancaire unique existe en Europe et les demandeurs ont fréquemment invoqué le droit matériel de l'Union européenne à l'appui de leurs prétentions. L'affaire BCCI illustre le type de contentieux auquel doivent faire face le Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) allemand, la Financial Services Authority (FSA) britannique, la Commission fédérale des banques (CFB) suisse ou la Commission bancaire (CB) française. L'accroissement de ce contentieux prouve que le risque d'engagement de la responsabilité des autorités de surveillance bancaire n'est pas purement théorique.
Resumo:
RESUMÉ Objectifs de la recherche: Depuis quelques années, l'utilisation de l'écologie dans le marketing a connu un essor considérable, aussi bien dans le monde académique que dans la pratique. De nos jours, la notion de label suscite un vif intérêt auprès des entreprises désireuses de promouvoir des produits "verts". Le principe de l'écolabellisation consiste à fournir aux consommateurs, en plus du prix, un nouvel élément de comparaison des produits. Les écolabels sont considérés comme l'un des meilleurs outils pour informer le consommateur, d'une manière claire et compréhensible, de l'impact du produit sur l'environnement. Nous nous intéressons, dans le cadre de notre travail, à l'étude du comportement d'achat des produits écolabellisés. En dépit de leur popularité croissante, les études académiques portant sur les labels écologiques sont relativement rares et de nombreuses problématiques demeurent en suspens. L'étude du comportement d'achat - au sens large - mérite notamment d'être approfondie. Notre recherche a plusieurs volets. Premièrement, nous étudions l'impact des valeurs, de l'implication vis-à-vis de l'écologie, du scepticisme, de la compréhension du label et de la connaissance de l'écologie sur le comportement d'achat de produits écolabellisés. Ensuite, nous testons la cohérence entre comportements écologiques en introduisant un comportement post- achat (le triage des déchets ménagers). Théories sous-jacentes: Notre étude repose sur différents apports académiques relatifs au comportement du consommateur "vert" mais également sur des concepts issus de la psychologie et de la sociologie. Nous présentons d'abord la littérature portant sur la caractérisation du consommateur "vert" (Webster, 1975; Arbuthnot, 1977; Van Liere et Dunlap, 1981; Balderjahn, 1988; Antil, 1984; Grunert et Juhl, 1995; Roberts, 1996). Nous abordons ensuite les études portant sur les valeurs (Schwartz, 1992; 1994), l'implication (Zaichkowsy, 1994), le scepticisme (Gray-Lee, Scammon et Mayer, 1994; Mohr et al., 1998), la compréhension des écolabels (van Dam et Reuvekamp, 1995; Thogersen, 2000) et la connaissance de l'écologie (Maloney et al., 1973, 1975; Arbuthnot, 1977; Pickett et al., 1993). Ces variables nous semblent être les plus à même d'influencer le comportement d'achat de produits écolabellisés. Enfin, sur la base des travaux de Valette-Florence et Roehrich (1993), nous développons un modèle de causalité, centré sur la relation entre les valeurs, l'implication et le comportement. Hypothèses de recherche et opérationnalisation des variables: Nous développons 16 hypothèses de recherche dont 12 portent sur les rapports de causalité entre construits. Par ailleurs, pour mieux comprendre la personnalité du consommateur de produits écolabellisés, nous distinguons les variables reflétant un intérêt collectif (altruisme) de celles reflétant un intérêt individuel (égocentrisme). La mesure des différents construits reposent sur la liste de Schwartz (1992, 1994) pour les valeurs, l'échelle d'implication de Zaichkowsy (1994) pour la publicité, l'échelle développée par Mohs et al. (1998) pour mesurer le scepticisme et une liste de questions portant sur l'écologie (Diekmann, 1996) pour tester le niveau de connaissance. Les comportements d'achat et post-achat sont mesurés respectivement à l'aide de questions relatives à la fréquence d'achat de produits écolabellisés et du triage des déchets ménagers. Collecte des données: Le recueil des données s'effectue par sondage, en ayant recours à des questionnaires auto-administrés. L'échantillon comprend de 368 étudiants provenant de diverses facultés de sciences humaines de Suisse Romande. Analyse des données et interprétation des résultats: Notre étude porte sur le comportement d'achat de trois labels écologiques et sur le triage de 7 déchets ménagers. Les différentes analyses montrent que certaines valeurs ont un impact sur l'implication et que l'implication a une influence positive sur le comportement d'achat et post-achat. Par ailleurs, nous montrons que l'implication sert de variable médiatrice entre les valeurs et le comportement. De plus, la compréhension de l'écolabel influence de manière positive l'achat de produits écolabellisés, la connaissance de l'écologie a une influence positive sur le comportement post-achat et le scepticisme vis-à-vis de l'utilité du triage des déchets ménagers influence négativement le comportement de triage. Implications managériales: Les résultats obtenus suggèrent qu'outre la valeur "protection de l'environnement", d'autres valeurs comme "la stimulation" ou encore "l'accomplissement" influencent de manière significative l'implication vis-à-vis de l'écologie qui à son tour influence l'achat de produits écolabellisés. Le manager doit donc tenir compte du fait que le consommateur est impliqué dans l'écologie. Ensuite, la compréhension du label joue un rôle prépondérant dans l'achat. De plus, le consommateur ne semble pas être sceptique par rapport aux informations fournies par les écolabels et le niveau de connaissance de l'écologie n'affecte pas son comportement. Enfin, le consommateur semble agir de manière cohérente en achetant différents produits écolabellisés. Apports, limites et voies de recherche: Notre étude contribue à l'enrichissement de la recherche sur le comportement du consommateur dans un contexte écologique à plusieurs égards, notamment par l'étude de la relation entre les valeurs, l'implication et le comportement. Néanmoins, la portée de notre recherche est naturellement restreinte en raison du nombre limité de cas étudiés, soit 3 labels écologiques relativement peu connus de notre échantillon. Il serait utile de répéter l'étude en utilisant des labels plus populaires. Par ailleurs, nous avons eu recours à des échelles développées dans des contextes quelque peu différents. En particulier, une échelle d'implication devrait être développée spécifiquement pour le contexte écologique.
La santé psychosociale à l'école : facteurs de risque et facteurs de protection pour les élèves
Resumo:
In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.
Resumo:
[Sommaire] 1. Qu'est-ce que la bientraitance ? Définitions. 2. Qui s'intéresse à la bientraitance ?. 3. Quel est l'intérêt de la bientraitance. 4. Qu'est-ce qui est connu comme efficace ? 5. Y-a-t-il des risques à prendre en compte, des opposants ? 6. Une perspective de santé publique. 7.Qu'est-ce qui devrait être fait maintenant ? [Introduction (extrait)] Depuis 2000, la notion de «bientraitance » est de plus en plus couramment utilisée, notamment en France et en Belgique. Pourtant, les contours de cette notion sont encore flous. Les définitions sont nombreuses et les points de vue diffèrent selon les corps professionnels. Cet ouvrage entend préciser les contours de cette notion tout en rendant compte de toute la complexité que suppose une telle entreprise. Il relève les différentes perspectives adoptées autour du thème de la bientraitance des enfants et soulève les interrogations inhérentes à toute tentative de définition. En plus de soulever de nombreuses pistes de réflexion, cette Revue de la Littérature a servi de base au développement d'un projet pilote mené depuis décembre 2006 dans le canton de Fribourg. Le projet « Bientraitance : le rôle de l'éducation non formelle », mené par la Fondation Charlotte Olivier, cherche à optimiser l'utilisation des ressources de bientraitance endogènes. Il poursuit un double objectif : augmenter l'accès et la participation des enfants et des adolescents à des activités collectives (sport, art, culture, scouts / éclaireurs,...) considérées comme "bientraitantes" (donc en principe favorables au développement et à la santé au sens large) et évaluer les résultats de cette participation.
Resumo:
1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.
Resumo:
Pour la première fois, le 12 février 2008, la Cour européenne des droits de l'homme a consacré une forme de protection pour les "whistleblowers". La Cour a ainsi condamné la Moldavie pour atteinte à la liberté d’expression d’un fonctionnaire licencié pour avoir communiqué à la presse un document confidentiel : une dénonciation aux médias peut exceptionnellement intervenir lorsque la dénonciation au supérieur hiérarchique ou à une autorité publique compétente semble impossible ou vouée à l'échec. L'arrêt Guja c. Moldova énonce plusieurs critères destinés à encadrer la démarche du whistleblower. Plusieurs questions importantes demeurent cependant ouvertes.
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.