34 resultados para barrières à l’intégration


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail vise à clarifier les résultats contradictoires de la littérature concernant les besoins des patients d'être informés et de participer à la prise de décision. La littérature insiste sur le contenu de l'information comme base de la prise de décision, bien qu'il existe des preuves que d'autres contenus sont importants pour les patients. La thèse essaie en outre d'identifier des possibilités de mieux répondre aux préférences d'information et de participation des patients. Les travaux ont porté en particulier sur les soins palliatifs. Une analyse de la littérature donne un aperçu sur les soins palliatifs, sur l'information des patients et sur leur participation à la prise de décisions thérapeutiques. Cette analyse résume les résultats d'études précédentes et propose un: modèle théorique d'information, de prise de décision et de relation entre ces deux domaines. Dans le cadre de ce travail, deux études empiriques ont utilisé des questionnaires écrits adressés à des personnes privées et à des professionnels de la santé, couvrant la Suisse et le Royaume Uni, pour identifier d'éventuelles différences entre ces deux pays. Les enquêtes ont été focalisées sur des patients souffrant de cancer du poumon. Les instruments utilisés pour ces études proviennent de la littérature afin de les rendre comparables. Le taux de réponse aux questionnaires était de 30-40%. La majorité des participants aux enquêtes estime que les patients devraient: - collaborer à la prise de décision quant à leur traitement - recevoir autant d'information que possible, positive aussi bien que négative - recevoir toutes les informations mentionnées dans le questionnaire (concernant la maladie, le diagnostic et les traitements), tenant compte de la diversité des priorités des patients - être soutenus par des professionnels de la santé, leur famille, leurs amis et/ou les personnes souffrant de la même maladie En plus, les participants aux enquêtes ont identifié divers contenus de l'information aux patients souffrant d'une maladie grave. Ces contenus comprennent entre autres: - L'aide à la prise de décision concernant le traitement - la possibilité de maintenir le contrôle de la situation - la construction d'une relation entre le patient et le soignant - l'encouragement à faire des projets d'avenir - l'influence de l'état émotionnel - l'aide à la compréhension de la maladie et de son impact - les sources potentielles d'états confusionnels et d'états anxieux La plupart des contenus proposés sont positifs. Les résultats suggèrent la coexistence possible de différents contenus à un moment donné ainsi que leur changement au cours du temps. Un modèle est ensuite développé et commenté pour présenter le diagnostic d'une maladie grave. Ce modèle est basé sur la littérature et intègre les résultats des études empiriques réalisées dans le cadre de ce travail. Ce travail analyse également les sources préférées d'information et de soutien, facteurs qui peuvent influencer ou faire obstacle aux préférences d'information et de participation. Les deux groupes de participants considèrent les médecins spécialistes comme la meilleure source d'information. En ce qui concerne le soutien, les points de vue divergent entre les personnes privées et les professionnels de la santé: généralement, les rôles de soutien semblent peu définis parmi les professionnels. Les barrières à l'information adéquate du patient apparaissent fréquemment liées aux caractéristiques des professionnels et aux problèmes d'organisation. Des progrès dans ce domaine contribueraient à améliorer les soins fournis aux patients. Finalement, les limites des études empiriques sont discutées. Celles-ci comprennent, entre autres, la représentativité restreinte des participants et les objections de certains groupes de participants à quelques détails des questionnaires. Summary The present thesis follows a call from the current body of literature to better understand patient needs for information and for participation in decision-making, as previous research findings had been contradictory. Information so far seems to have been considered essentially as a means to making treatment decisions, despite certain evidence that it may have a number of other values to patients. Furthermore, the thesis aims to identify ways to optimise meeting patient preferences for information and participation in treatment decisions. The current field of interest is palliative care. An extensive literature review depicts the background of current concepts of palliative care, patient information and patient involvement into treatment decisions. It also draws together results from previous studies and develops a theoretical model of information, decision-making, and the relationship between them. This is followed by two empirical studies collecting data from members of the general public and health care professionals by means of postal questionnaires. The professional study covers both Switzerland and the United Kingdom in order to identify possible differences between countries. Both studies focus on newly diagnosed lung cancer patients. The instruments used were taken from the literature to make them comparable. The response rate in both surveys was 30-40%, as expected -sufficient to allow stastical tests to be performed. A third study, addressed to lung cancer patients themselves, turned out to require too much time within the frame available. A majority of both study populations thought that patients should: - have a collaborative role in treatment-related decision-making -receive as much information as possible, good or bad - receive all types of information mentioned in the questionnaire (about illness, tests, and treatment), although priorities varied across the study populations - be supported by health professionals, family members, friends and/or others with the same illness Furthermore they identified various 'meanings' information may have to patients with a serious illness. These included: - being an aid in treatment-related decision-making - allowing control to be maintained over the situation - helping the patient-professional relationship to be constructed - allowing plans to be made - being positive for the patient's emotional state - helping the illness and its impact to be understood - being a source of anxiety - being a potential source of confusion to the patient Meanings were mostly positive. It was suggested that different meanings could co-exist at a given time and that they might change over time. A model of coping with the disclosure of a serious diagnosis is then developped. This model is based on existing models of coping with threatening events, as takeñ from the literature [ref. 77, 78], and integrates findings from the empirical studies. The thesis then analyses the remaining aspects apparent from the two surveys. These range from the identification of preferred information and support providers to factors influencing or impeding information and participation preferences. Specialist doctors were identified by both study populations as the best information providers whilst with regard to support provision views differed between the general public and health professionals. A need for better definition of supportive roles among health care workers seemed apparent. Barriers to information provision often seem related to health professional characteristics or organisational difficulties, and improvements in the latter field could well help optimising patient care. Finally, limitations of the studies are discussed, including questions of representativness of certain results and difficulties with or objections against questionnaire details by some groups of respondents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les changements climatiques du Quaternaire ont eu une influence majeure sur la distribution et l'évolution des biota septentrionaux. Les Alpes offrent un cadre spatio-temporel bien étudié pour comprendre la réactivité de la flore et le potentiel d'adaptation d'une espèce végétale face aux changements climatiques. Certaines hypothèses postulent une diversification des espèces en raison de la disparition complète de la flore des Alpes et d'un isolement important des espèces dans des refuges méridionaux durant les dernières glaciations (Tabula Rasa). Une autre hypothèse stipule le maintien de poches de résistance pour la végétation au coeur des Alpes (Nunataks). Comme de nombreuses espèces végétales présentant un grand succès écologique semblent avoir réagi aux glaciations par la multiplication de leur génome (autopolyploïdie), leur étude en milieu naturel devrait permettre de comprendre les avantages inhérents à la polyploïdie. Biscutella laevigata est un modèle emblématique de biogéographie historique, diverses études ayant montré que des populations diploïdes sont actuellement isolées dans les zones restées déglacées durant le dernier maximum glaciaire, alors que des tétraploïdes ont recolonisé l'ensemble des zones alpines mises à nu par le retrait des glaciers. Si le contexte périglaciaire semble avoir favorisé ce jeune complexe autopolyploïde, les circonstances et les avantages de cette mutation génomique ne sont pas encore clairs. Y a-t-il eu de multiples événements de polyploïdisation ? Dans quelle mesure affecte(nt)il(s) la diversité génétique et le potentiel évolutif des polyploïdes ? Les polyploïdes ont-ils une grande flexibilité génomique, favorisant une radiation adaptative, ou doivent-ils leur succès à une grande plasticité écologique ? Cette étude aborde ces questions à différentes échelles spatiales et temporelles. L'échelle régionale des Alpes occidentales permet d'aborder les facteurs distaux (aspects historiques), alors que l'échelle locale cherche à appréhender les facteurs proximaux (mécanismes évolutifs). Dans les Alpes occidentales, des populations ont été densément échantillonnées et étudiées grâce à (1) leur cytotype, (2) leur appartenance taxonomique, (3) leur habitat et (4) des marqueurs moléculaires de l'ADN chloroplastique, en vue d'établir leurs affinités évolutives. Á l'échelle locale, deux systèmes de population ont été étudiés : l'un où les populations persistent en périphérie de l'aire de distribution et l'autre au niveau du front actif de colonisation, en marge altitudinale. Les résultats à l'échelle des Alpes occidentales révèlent les sites d'intérêt (refuges glaciaires, principales barrières et voies de recolonisation) pour une espèce représentative des pelouses alpines, ainsi que pour la biodiversité régionale. Les Préalpes ont joué un rôle important dans le maintien de populations à proximité immédiate des Alpes centrales et dans l'évolution du taxon, voire de la végétation. Il est aussi démontré que l'époque glaciaire a favorisé l'autopolyploïdie polytopique et la recolonisation des Alpes occidentales par des lignées distinctes qui s'hybrident au centre des Alpes, influençant fortement leur diversité génétique et leur potentiel évolutif. L'analyse de populations locales en situations contrastées à l'aide de marqueurs AFLP montre qu'au sein d'une lignée présentant une grande expansion, la diversité génétique est façonnée par des forces évolutives différentes selon le contexte écologique et historique. Les populations persistant présentent une dispersion des gènes restreinte, engendrant une diversité génétique assez faible, mais semblent adaptées aux conditions locales de l'environnement. À l'inverse, les populations colonisant la marge altitudinale sont influencées par les effets de fondation conjugués à une importante dispersion des gènes et, si ces processus impliquent une grande diversité génétique, ils engendrent une répartition aléatoire des génotypes dans l'environnement. Les autopolyploïdes apparaissent ainsi comme capables de persister face aux changements climatiques grâce à certaines facultés d'adaptation locale et de grandes capacités à maintenir une importante diversité génétique lors de la recolonisation post-glaciaire. Summary The extreme climate changes of the Quaternary have had a major influence on species distribution and evolution. The European Alps offer a great framework to investigate flora reactivity and the adaptive potential of species under changing climate. Some hypotheses postulate diversification due to vegetation removal and important isolation in southern refugia (Tabula Rasa), while others explain phylogeographic patterns by the survival of species in favourable Nunataks within the Alps. Since numerous species have successfully reacted to past climate changes by genome multiplication (autopolyploidy), studies of such taxa in natural conditions is likely to explain the ecological success and the advantages of autopolyploidy. Early cytogeographical surveys of Biscutella laevigata have shed light on the links between autopolyploidy and glaciations by indicating that diploids are now spatially isolated in never-glaciated areas, while autotetraploids have recolonised the zones covered by glaciers- during the last glacial maximum. A periglacial context apparently favoured this young autopolyploid complex but the circumstances and the advantages of this genomic mutation remain unclear. What is the glacial history of the B. laevigata autopolyploid complex? Are there multiple events of polyploidisation? To what extent do they affect the genetic diversity and the evolutionary potential of polyploids? Is recolonisation associated with adaptive processes? How does long-term persistence affect genetic diversity? The present study addresses these questions at different spatiotemporal scales. A regional survey at the Western Alps-scale tackles distal factors (evolutionary history), while local-scale studies explore proximal factors (evolutionary mechanisms). In the Western Alps, populations have been densely sampled and studied from the (1) cytotypic, (2) morphotaxonomic, (3) habitat point of views, as well as (4) plastid DNA molecular markers, in order to infer their relationships and establish the maternal lineages phylogeography. At the local scale, populations persisting at the rear edge and populations recolonising the attitudinal margin at the leading edge have been studied by AFLPs to show how genetic diversity is shaped by different evolutionary forces across the species range. The results at the regional scale document the glacial history of a widespread species, representative of alpine meadows, in a regional area of main interest (glacial refugia, main barriers and recolonisation routes) and points out to sites of interest for regional biodiversity. The external Alps have played a major role in the maintenance of populations near the central Alps during the Last Glacial Maximum and influenced the evolution of the species, and of vegetation. Polytopic autopolyploidy in different biogeographic districts is also demonstrated. The species has had an important and rapid radiation because recolonisation took place from different refugia. The subsequent recolonisation of the Western Alps was achieved by independent lineages that are presently admixing in the central Alps. The role of the Pennic summit line is underlined as a great barrier that was permeable only through certain favourable high-altitude passes. The central Alps are thus viewed as an important crossroad where genomes with different evolutionary histories are meeting and admixing. The AFLP analysis and comparison of local populations growing in contrasted ecological and historical situations indicate that populations persisting in the external Alps present restricted gene dispersal and low genetic diversity but seem in equilibrium with their environment. On the contrary, populations colonising the attitudinal margin are mainly influenced by founder effects together with great gene dispersal and genotypes have a nearly random distribution, suggesting that recolonisation is not associated with adaptive processes. Autopolyploids that locally persist against climate changes thus seem to present adaptive ability, while those that actively recolonise the Alps are successful because of their great capacity to maintain a high genetic diversity against founder effects during recolonisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les lois sur l'accès à l'information contraignent les gouvernements et les administrations publiques à la transparence et ainsi à divulguer l'information dont ils disposent. Pourtant, si ces lois ont permis d'accroître l'information des citoyens, on constate que de nombreuses organisations publiques cherchent toujours à dissimuler de l'information alors qu'aucun intérêt public ou privé prépondérant ne justifie ce comportement. Cet article établit une typologie de ces comportements, les décrit et les illustre au travers de nombreux exemples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente les risques liés aux transitians de soins et en particulier hospitalo-ambulatoires, qui, sans mesure d'accompagnement proactive, menacent le processus de rétablissement des personnes souffrant de troubles psychiatriques. En effet, les risques de rupture des soins et de réadmission sont davantage liés aux caractéristiques du système sociosanitaire qu'à celles du patient ou de la maladie. Des mesures d'accompagnement simples ne sont pas systématiques dans le domaine de la psychiatrie, alors même que ces patients sont particulièrement vulnérables dans les périodes de post-hospitalisation souvent synonymes de barrières au traitement. Le modèle de case management de transition développé à Lausanne est brièvement présenté et illustré au moyen d'une vignette clinique. Ses particularités sont notamment le recours systématique à certains outils soutenant le rétablissement et l'implication active du patient et de son entourage depuis l'hospitalisation jusqu'au retour dans la communauté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de pouvoir se défendre contre les insectes nuisibles, les plantes ont développé plusieurs stratégies leur permettant de maximiser leurs chances de survie et de reproduction. Parmi elles, les plantes sont souvent pourvues de barrières physiques telles que les poils urticants, les épines et la cuticule. En plus, les plantes sont capables de produire des protéines anti-digestives et des métabolites secondaires insecticides tels que la nicotine, les tannins ou les glucosinolates (GS). La mise en place de ces barrières physiques et chimiques comporte un coût énergétique au détriment de la croissance et de la reproduction. Par conséquent, en absence d'insectes, la plante investit la majeure partie de son énergie dans le développement et la croissance. A l'inverse, une blessure causée par un insecte provoquera une croissance ralentie, une augmentation de la densité de poils urticants ainsi que la synthèse de défenses chimiques. Au niveau moléculaire, cette défense inductible est régulée par l'hormone végétale acide jamsonique (AJ). En réponse à l'attaque d'un insecte, la plante produit cette hormone en grande quantité, ce qui se traduira par une forte expression de gènes de défense. Pendant ma thèse, j'ai essayé de découvrir quels étaient les facteurs de transcription (FT) responsables de l'expression des gènes de défense dans Arabidopsis thaliana. J'ai ainsi pu démontrer que des plantes mutées dans les FTs comme MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF13 et RRTF1 deviennent plus sensibles aux insects de l'espèce Spodoptera littoralis. Par la suite, j'ai également pu montrer que MYC2, MYC3 et MYC4 sont probablement la cible principale de la voie de signalisation du AJ et qu'ils sont nécessaires pour l'expression de la majorité des gènes de défense dont la plupart sont essentiels à la biosynthèse des GS. Une plante mutée simultanément dans ces trois protéines est par conséquent incapable de synthétiser des GS et devient hypersensible aux insectes. J'ai également pu démontrer que les GS sont uniquement efficaces contre les insectes généralistes tels S. littoralis et Heliothis virescens alors que les insectes spécialisés sur les Brassicaceae comme Pieris brassicae et Plutella xylostella se sont adaptés en développant des mécanismes de détoxification. - In response to herbivore insects, plants have evolved several defence strategies to maximize their survival and reproduction. For example, plants are often endowed with trichomes, spines and a thick cuticule. In addition, plants can produce anti-digestive proteins and toxic secondary metabolites like nicotine, tannins and glucosinolates (GS). These physical and chemical barriers have an energetic cost to the detriment of growth and reproduction. As a consequence, in absence of insects, plants allocate their energy to development and growth. On the contrary, an attack by herbivore insects will affect plant growth, increase trichome density and induce the production of anti-digestive proteins and secondary metabolites. At the molecular level, this inducible defence is regulated by the phytohormone jasmonic acid (JA). Thus, an attack by herbivores will be followed by a burst of JA that will induce the expression of defence genes. The aim of my thesis was to characterize which transcription factors (TF) regulate the expression of these defence genes in Arabidopsis thaliana. I could show that plants mutated in various TFs like MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF 13 and RRTFl were more susceptible to the herbivore Spodoptera littoralis. Furthermore, I could demonstrate that MYC2, MYC3 and MYC4 are probably the main target of the JA-signalling pathway and that they are necessary for the insect-mediated induction of most defence genes including genes involved in the biosynthesis of GS. A triple mutant myc2myc3myc4 is depleted of GS and consequently hypersensitive to insects. Moreover, I showed that GS are only efficient against generalist herbivores like S. littoralis and Heliothis virescens whereas specialized insects like Pieris brassicae and Plutella xylostella have evolved detoxification mechanisms against GS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION : 1. L'OBJET ET L'INTÉRÊT DE LA THÈSE : DES BARRIÈRES D'ACCÈS À LA JUSTICE L'accès à la justice est un droit fondamental garanti par les art. 29a Cst. et 6 CEDH. Il s'agit d'un droit social mis en place par l'avènement de l'Etat providence qui accorde à chacun le droit à ce qu'un tribunal connaisse de toute contestation relative à ses droits et obligations de caractère civil. Aussi a-t-il pour effet de rendre efficace la législation mise en place par un Etat. Ainsi dans le cas particulier du droit de la consommation, l'élaboration des règles de droit matériel ne suffirait pas à concrétiser la protection des consommateurs voulue par le constituant et le législateur fédéral si une voie d'accès à la justice n'était pas ouverte afin de permettre aux consommateurs dont les droits sont violés d'en obtenir réparation. Si le droit formel permet à chacun de poursuivre la réalisation de ses droits par la voie judiciaire, y compris pour les consommateurs, il n'en demeure pas moins que ces derniers, dans la pratique, rencontrent plusieurs obstacles qui, souvent, les découragent de faire valoir leurs droits en justice. En effet, les tribunaux, victimes de leur succès, ont de plus en plus de peine à faire face à la masse des litiges qui leur sont soumis. L'engorgement de l'institution judiciaire est responsable de longs délais avant qu'une affaire soit jugée. A cela s'ajoutent des problèmes d'ordre financier : le coût de la justice comprenant le coût de la consultation juridique et de la représentation, des frais de consultation d'experts qui, parfois, peuvent dépasser le montant même du litige, sans oublier le risque, pour le consommateur, de devoir assurer, en cas d'échec du procès, les frais de l'autre partie. Puis on trouve des barrières d'ordre psychologique liées à la complexité et au formalisme qui accompagnent certaines procédures judiciaires civiles. Enfin, il y a la situation très complexe du litige revêtant un caractère intercantonal ou international (litiges transfrontaliers). S'agissant de litiges de faible valeur litigieuse (petits litiges ou small claims en anglais), ces barrières prennent une importance telle que de nombreux consommateurs renoncent tout simplement à faire valoir leurs droits en justice et subissent parfois la violation de ceux-ci. La valeur limitée de l'enjeu économique du litige peut rendre la durée de la procédure judiciaire démesurée et son coût disproportionné. En ce qui concerne le coût de la justice, nous illustrons ce propos par l'exemple reproduit sous l'annexe I ci-dessous. Il est également bon de signaler une étude couvrant 15 Etats membres de l'Union européenne réalisée en 1995 par la Commission européenne selon laquelle " le coût moyen (frais de justice + frais d'avocat, hors TVA) d'un règlement judiciaire d'un litige intracommunautaire portant sur un montant de 2'000 écus s'élève, dans la meilleure des hypothèses pour la partie demanderesse, à un montant d'environ 2'500 écus ". Après avoir relevé l'importance de l'accès à la justice pour le consommateur et les différents obstacles qui se dressent sur son chemin, nous allons nous intéresser aux solutions proposées pour minimiser voire supprimer ces barrières. A cet égard, on se posera la question de savoir dans quelle mesure les moyens extrajudiciaires, tels que des institutions d'ombudsmans et des organismes paritaires existant dans certains secteurs de la consommation, peuvent constituer des alternatives efficaces à la saisine des tribunaux. Puis on se demandera de quelle manière il faut alléger les formalités de procédure afin de permettre aux consommateurs non assistés de mandataires professionnels de saisir la justice et par-là même de diminuer le coût lié à celle-ci. Enfin, vu les difficultés qu'affrontent les consommateurs agissant individuellement, la question de l'opportunité de procédures collectives sera abordée. Comme ces interrogations touchent de près ou de loin les alinéas 2 et 3 de l'art. 97 Cst. nous avons jugé opportun d'exposer à titre liminaire la genèse de cette disposition. De plus, comme celui qui entreprend de traiter l'accès des consommateurs à la justice se doit de commencer par définir ce que l'on entend par consommateur, nous aborderons les notions de consommateur et de litige de consommation avant d'entrer dans le vif de la matière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transparence administrative s'est développée dans la plupart des pays durant les 30 dernières années notamment grâce à l'introduction des lois sur l'accès à l'information. Les pratiques de l'administration devraient par conséquent consacrer ce changement de culture, passant d'une logique du secret à celle d'une ouverture quant aux informations disponibles. De nombreuses études ont cependant démontré que les administrations restaient assez réticentes à divulguer l'information dont elles disposent et qu'elles développent des stratégies et des comportements limitant ce nouveau droit. Cet article présente une nouvelle méthodologie d'analyse des processus permettant la transparence (la transparence de la transparence) et la teste de manière exploratoire sur les entités de l'administration fédérale suisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les esters sont des agents thérapeutiques largement utilisés comme médicaments et prodrogues. Leurs dégradation est chimique et enzymatique. Le Chapitre IV de cette thèse a comme objet l'hydrolyse chimique de plusieurs dérivés esters du 2,3-dimethoxyphenol. Des composés modèles ont été synthétisés dans le but de déterminer leur mécanismes de dégradation. Les profils d'ionisation et d'hydrolyse de ces composés ont permis d'identifier la présence d'une catalyse intramoléculaire basique par un atome d'azote non-protoné. Les effets électroniques exercés par les groupes phenylethenyle et phenylcyclopropyle influencent également la vitesse d'hydrolyse des esters. La résolution des problèmes liés à l'adsorption et la perméation est devenue à nos jours l'étape limitante dans la conception de nouveaux médicaments car de trop nombreux candidats prometteurs ont échoué à cause d'une mauvaise biodisponibilité. La lipophilie décrit le partage d'un médicament entre une membrane lipidique et son environnement physiologique aqueux, et de ce fait elle influence sa pharmacocinétique. Des études récents ont mis en évidence l'importance de la détermination de la lipophilie des espèces ionisées vu leur considérable impact biologique. Le Chapitre V de cette thèse est centré sur une classe particulière de composés ionisables, les zwitterions. Plusieurs methoxybenzylpiperazines de nature zwitterionique ont été étudiées. Leurs profils d'ionisation ont montré que dans un large intervalle de pH, l'espèce prédominante est le zwitterion. Les profils de lipophilie ont montré que leur lipophilie est plus élevée que celles des zwitterions courants. Une interaction électrostatique entre l'oxygène du carboxylate et l'azote protoné est responsable de ce profil et rend la plupart des zwitterions non-donneurs de liaison hydrogène. Ces deux aspects peuvent favoriser le passage de la barrière hémato-éncephalique. Les données biologiques ont par la suite confirmé cette hypothèse pour un certain nombre de composés. Résumé large public Les esters sont des composés souvent rencontrés en chimie thérapeutique. Ils sont dégradés en milieu aqueux par une réaction d'hydrolyse, avec ou sans la participation d'enzymes. Dans ce travail de thèse, une série d'esters ont été étudiés dans le but d'établir une relation entre leur structure et les mécanismes responsables de leur dégradation chimique. Il a été prouvé que la dégradation est accélérée par un atome d'azote non-protoné. D'autres mécanismes peuvent intervenir en fonction du pH du milieu. La présence d'une liaison simple ou double ou d'un groupe phenylcyclopropyle peut également influencer la vitesse de dégradation. Il est essentiel, dans la conception de nouveaux médicaments, d'optimiser les étapes qui influencent leur distribution dans le corps. Ce dernier peut être visualisé comme une série infinie de compartiments aqueux séparés par des membranes lipidiques. La lipophilie est une propriété moléculaire importante qui décrit le passage des barrières rencontrées par les médicaments. Des études récentes ont mis en évidence l'importance de déterminer la lipophilie des espèces ionisées vu leur considérable impact biologique. Dans ce travail de thèse a été étudiée une série particulière de composés ionisables , les zwitterions. Une relation a été établie entre leur structure et leur proprietés physico-chimiques. Une lipophilie plus élevée par rapport à celle des zwitterions courants a été trouvée. Une interaction entre les groupes chargés des zwitterions étudiés est responsable de ce comportement inattendu et rend la plupart d'entre eux non-donneurs de liaison hydrogène. Ces deux facteurs peuvent favoriser la pénétration cérébrale. Les données biologiques ont confirmé cette hypothèse pour un certain nombre de composés. Summary Esters are often encountered in medicinal chemistry. Their hydrolysis may be chemical as well as enzymatic. Chapter IV of this manuscript provides a mechanistic insight into the chemical hydrolysis of a particular series of basic esters derived from 2,3-dimethoxyphenol. Their ionization and pH-rate profiles allowed to identify the presence of an intramolecular base catalysis by a non-protonated nitrogen atom. Electronic effects exerted by the phenylethenyl and phenylcyclopropyl groups that are present in the structure of the esters also influenced their rate of hydrolysis. Numerous works in the literature witness of the importance of lipophilicity in determining the fate of a drug. Most published partition coefficients are those of neutral species. In contrast, no exhaustive treatment of the lipophilicity of charged molecules is available at present, and a lack of information characterizes in particular zwitterions. Chapter V of this manuscript provides an insight into the physicochemical parameters of a series of zwitterionic methoxybenzylpiperazines. Their ionization profiles showed that they exist predominantly in the zwitterionic form in a broad pH-range. An electrostatic interaction between the oxygen of the carboxylate and the protonated nitrogen atom is increases the lipophilicity of the investigated zwitterions, and prevents the majority of them to express their hydrogen-bonding capacity. These two aspects may favor the crossing of the blood-brain barrier. The available ratios PSt/PSf measured in vitro have confirmed this point for a number of compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHESE : Les deux articles présentés dans ce mémoire de thèse sont le résultat de recherches effectuées au sein du Groupe de Recherche sur la Santé des Adolescents, affilié à l'Unité Multidisciplinaire de Santé des Adolescents du Centre Hospitalier Universitaire Vaudois. Les études qui constituent les présents articles ont pour thème commun la santé des adolescents atteints d'affections chroniques, à savoir d'une maladie chronique et/ou d'un handicap physique. Les données qui ont servi à ces deux études sant issues de l'enquête SMASH02 (Swiss Multicenter Adolescent Survey on Health 2002), une étude transversale multicentrique, menée en 2002 dans les écoles post-obligatoires de la majorité des cantons suisses par l'intermédiaire de questionnaires anonymes. 7548 adolescents de 16 à 20 ans ont été recrutés dans cette enquête, qui porte sur de nombreux aspects de la santé et des modes de vie des adolescents. Les analyses des données ont été effectuées à l'aide du logiciel de statistiques STATA 9 et avec l'aide d'un statisticien de l'université de Lausanne. Le premier article, intitulé "Sport Practice Among Adolescents Witte Chrome Health Conditions", est publié en juin 2009 dans la revue Archives of Pediatrics and Adolescent Medicine. Cette étude compare le niveau d'activité sportive entre les adolescents atteints d'affections chroniques et leurs pairs. L'hypothèse de recherche postule que les adolescents malades chroniques et/ou en situation de handicap pratiquent significativement moins de sport que les autres. Il ressort des analyses statistiques que cette hypothèse n'est vérifiée que si l'on considère les adolescents de sexe masculin. En effet, l'étude montre également que les filles de 16 à 20 ans en général pratiquent significativement moins de sport que leurs pairs masculins. Et le fait d'être atteint d'une affection chronique semble ne pas représenter chez elles un facteur,de risque supplémentaire de diminution de la pratique sportive. Dans ce même article, nous traitons également des éléments perçus par les adolescents comme des barrières à la pratique sportive. Il s'avère que les adolescents atteints d'affections chroniques ne perçoivent pas leur maladie ou leur situation de handicap comme la principale raison de leur faible activité sportive. Ils évoquent plus fréquemment un manque de temps libre ou une préférence pour d'autres activités, soit les mêmes barrières que celles évoquées par leurs pairs. Les conclusions de cette étude doivent rappeler aux professionnels de la santé l'importance d'encourager la pratique sportive chez leurs jeunes patients, particulièrement ceux atteints d'affections chroniques ainsi que les adolescentes en général. Dans le second article, intitulé "Are Adolescents With Chronic Conditions Particularly at Risk of Bullying?", il est question de violence entre adolescents. Plus précisément, nous étudions la prévalence de bullying chez les adolescents atteints d'affections chroniques et leurs pairs. Le terme de bullying, volontairement emprunté à l'Anglais, représente un phénomène complexe, que l'on peut approximer en Français comme une victimisation par les pairs en milieu scolaire. Il résulte de cette étude que le fait d'être atteint d'une affection chronique semble être un facteur de risque significatif de bullying chez les adolescents de 16 à 20 ans. Cette conclusion amène à considérer le problème du bullying dans l'intégration des élèves malades chroniques et en situation de handicap dans le système scolaire principal, notamment par la mise en place de mesures de prévention. Cet article est publié en ligne par la revue Archives of Disease in Childhood en mars 2009.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de thèseC.F. Ramuz (1878-1947) compte parmi les auteurs de Suisse française les plus traduits au cours du XXe siècle. Ses romans, nouvelles, poèmes et essais ont circulé à travers le monde entier dans une trentaine de langues, totalisant plus de trois cents documents traduits. Malgré cette très large diffusion, aucune étude détaillée n'a permis à ce jour de présenter les enjeux de sa réception en dehors de l'aire francophone. Cette recherche vise à combler en partie cette lacune, en s'attachant à l'analyse de la réception germanophone de Ramuz. Comme celle-ci se concentre essentiellement sur un espace de production, de circulation et de discussion alémanique, ce travail aborde aussi une histoire des échanges littéraires en Suisse. Les aspects développés dans ce travail permettent d'identifier les facteurs qui ont conféré à Ramuz, dans le contexte spécifiquement suisse, la stature d'un écrivain national.C'est en 1921 que paraissent les premières traductions allemandes en volume, sous l'égide du traducteur bâlois Albert Baur. Werner Johannes Guggenheim, un homme de théâtre très engagé dans la vie culturelle suisse, lui emboîte le pas pour devenir dès 1927 le traducteur attitré de Ramuz. Entre 1927 et 1945, il signe vingt et une traductions qui feront l'objet de nombreuses rééditions. Durant cette large période, la lecture des textes de Ramuz est placée sous le sceau de la Défense spirituelle et le travail du traducteur contribue à renforcer les valeurs fondatrices du pays, par-delà les barrières linguistiques. Mais les textes de Ramuz prêtent aussi le flanc à un autre type de lecture idéologique : l'attachement de l'auteur au sol qui l'a vu naître fournit un terreau propice aux thèses du IIIe Reich et plusieurs travaux universitaires allemands investiguent la mystique paysanne de Ramuz pour le rattacher au canon de la littérature « Blut-und-Boden ». Il faut attendre les années 1970 pour qu'un vaste projet éditorial s'engage dans une réévaluation de l'oeuvre ramuzienne : entre 1972 et 1978, la maison Huber Verlag à Frauenfeld confie à différents traducteurs le soin de traduire les grands romans et les principaux essais de Ramuz sous le titre des Werke in sechs Bänden. La modernité de son écriture, son rythme et sa narration polyphonique ressortent alors à travers ces retraductions. Parallèlement, la réception germanophone de Ramuz est animée à la fin des années 1970 par une série de traductions en dialecte bernois réalisées par Hans Ulrich Schwaar. Depuis le début des années 1980, l'oeuvre de Ramuz se trouve toujours au catalogue des éditeurs de langue allemande, mais principalement en réédition. Pastorale, un recueil de nouvelles traduit par Peter Sidler en 1994 chez Limmat Verlag, représente toutefois une exception et semble ranimer dans l'aire germanophone la discussion autour des oeuvres de Ramuz.La recherche souligne ainsi les dynamiques particulières qui ont conditionné le transfert des textes de Ramuz en langue allemande. Elle révèle comment les traductions peuvent être le miroir des différentes politiques culturelles qui ont régi les échanges littéraires au sein de la Suisse durant tout le siècle passé. Cette étude permet aussi d'explorer la façon dont les instances littéraires suisses ont négocié le passage vers l'Allemagne, notamment sous le régime nazi. Enfin, sur le plan littéraire, l'analyse des textes traduits invite à une relecture des explorations stylistiques de l'écrivain romand : le regard transversal des traducteurs éclaire sous un jour différent les débats qui animent la réception de Ramuz en langue française, en même temps qu'il y apporte des réponses nouvelles et parfois inattendues.