999 resultados para gestion de risques
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.
Resumo:
L'évolution des connaissances et des compétences en matière d'évaluation et de gestion du risque de violence a permis une indiscutable avancée. Néanmoins les instruments utilisés restent encore source de controverses et prêtent le flanc à de nombreuses critiques. Dans ce contexte le climat sécuritaire actuel fait peser une lourde pression sur les équipes soignantes qui ont aussi à faire face à la violence des patients. Une réflexion sur les possibilités et les limites autant du soin que de la privation de liberté permet, peut-être d'envisager ce qu'est un risque acceptable. Evolution of knowledge and skills in violence risk management and assessment allowed an indisputable progress. Nevertheless instruments used such as HCR-20 still remain source of controversy and gives occurrence to numerous criticisms. In this context, the current high security climate puts added pressure on the medical teams which also have to deal with the violence of patients. A reflection on the possibilities and the limits of care as well as freedom deprivation may allow us to envision what is an acceptable risk.
Resumo:
Les problèmes de santé mentale (détresse psychique, dépression, burn-out, etc.) sont une préoccupation grandissante dans les sociétés occidentales. Ils se caractérisent par de gros risques de rechutes et de chronicisation (Lopez, Mathers, Ezzati, Jamison, Murray, 2006; The WHO World Mental Health Survey Consortium, 2004), ainsi que par des conséquences dramatiques pour les personnes qui en sont les victimes. Pour les organisations - et la police n'échappe pas à ce phénomène - ces problèmes constituent un défi majeur puisqu'ils sont associés à des épisodes d'absences prolongées et à une diminution importante de l'efficacité au travail. [Auteur]
Une nouvelle facette du travail indépendant : les chômeurs créateurs d'entreprise : une étude de cas
Resumo:
Dans le monde social, la figure du chômeur créateur d'entreprise se voit réduite à une approche essentiellement économique qui se polarise entre d'un côté, une valorisation de la création d'entreprises individuelles présentée par les milieux économiques comme un outil efficace de relance de la croissance et de résolution de la question du chômage , et de l'autre, une dénonciation des risques financiers et des dangers sociaux encourus par les individus qui se lancent dans une telle démarche. Mais au final, que sait-on réellement de ces nouveaux indépendants, de leur situation, du sens qu'ils donnent à leur activité, bref de ce qu'ils peuvent vivre ? Leur émergence concorde-t-elle avec un nouveau choix de vie, un désir de conciliation entre projet de vie et projet professionnel, ou sommes-nous face à un nouveau visage de la précarité en lien avec le contexte de la crise de l'emploi ? Répondent-ils au slogan largement véhiculé par le discours économique et politique selon lequel « il faut devenir l'entrepreneur de sa propre vie » , expression d'un individualisme exacerbé et d'une volonté non dissimulée de responsabilisation des agents sociaux ? Enfin, ce nouveau type d'autoemploi représente-t-il une étape de transition vers la réinsertion dans la société salariale, ou l'émergence d'une évolution significative des comportements de travail et des significations qui lui sont attribuées? C'est à toutes ces questions que notre recherche tente de répondre. La figure du chômeur créateur émerge dans un environnement dominé par une logique qui ne cesse de promouvoir la figure de l'homo oeconomicus comme modèle à suivre . Il faut être libre, autonome, responsable, calculateur et entreprenant. Si en apparence, ces créateurs d'entreprise peuvent être assimilés à la figure de l'entrepreneur schumpeterien, sur les critères de la réponse qu'ils apportent à l'impératif d'individualisation et de responsabilisation, ils opèrent en réalité une subtile réappropriation de cette exigence en l'adaptant aux critères de l'épanouissement personnel. Unanimement satisfaits tant sur le plan des « attributs intrinsèques » qu' « extrinsèques » du travail, la majorité des créateurs rencontrés ne ressentent pas leur situation d'emploi comme précaire. Ils refusent par ailleurs avec force d'envisager un retour au salariat, même lorsque la santé de leur entreprise menace leur survie économique et leur emploi. Cette position à l'égard de la condition salariale trouve sa justification dans une primauté accordée aux valeurs épanouissantes de l'activité exercée, au détriment d'une quête de stabilité financière et professionnelle. Les dimensions de la liberté, de l'autonomie et de la maîtrise des conditions de travail sont des composantes essentielles à la compréhension du désir de se maintenir dans l'activité indépendante. Dans la construction de ce modèle de travail et dans la relation entretenue à la nouvelle modalité d'emploi, ce n'est pas tant le passage par le chômage, mais bien plus l'expérience salariale antérieure, qui entre en jeu de manière significative. Les bouleversements dans la hiérarchie des valeurs de ces travailleurs sont ainsi peut-être le signe d'une évolution des comportements face à la condition salariale. L'attachement presque inconditionnel des répondants à leur nouveau statut, combiné à un refus catégorique d'envisager un retour au salariat, peut faire l'objet d'une interprétation en termes de détachement par rapport à la norme fordiste, laquelle perdure encore comme principale référence normative, au sein d'une majorité de travailleurs, malgré une application de plus en plus compromise. Par conséquent, l'attitude des chômeurs créateurs témoignerait d'une transition initiée entre un modèle d'emploi devenu obsolète et la construction d'une pluralité de modèles davantage élaborés sur la base de critères individuels.
Resumo:
L'office fédéral de la santé publique (OFSP) a lancé le Monitorage suisse des addictions en 2011 (en anglais : Addiction Monitoring in Switzerland- AMIS). A intervalles réguliers, des données représentatives de la population suisse sont recensées, notamment en ce qui concerne la consommation d'alcool, de tabac, de drogues illégales et de médicaments ainsi que les risques qui lui sont liés. A cet effet, 11'000 personnes âgées de 15 ans et plus sont contactées annuellement pour répondre à un questionnaire. A ce jour, les données de 2011 et 2012 sont disponibles. Dans le cadre du Programme national migration et santé (2008-2013), l'OFSP désire compléter les données disponibles sur la santé des migrants. Ce rapport présente une analyse secondaire des données portant sur les migrants dans le cadre de l'enquête téléphonique continue mentionnée ci-dessus qui a été effectuée auprès de plus de 22'000 personnes de 15 ans et plus, résidant en Suisse en 2011 et 2012.
Resumo:
La mort est au centre de toutes les sociétés. Quelles que soient les procédures funéraires suivies - de la crémation du cadavre à l'embaumement le plus sophistiqué -, la mort fait l'objet de traitements obéissant aux conceptions que les sociétés se font de la mort elle-même, du devenir du défunt et des relations que les vivants entretiennent avec ce dernier. Si la mort donne lieu à des rites funéraires fort variés, ceux-ci partagent cependant des fonctions communes: prendre acte d'une rupture tout en la dissolvant dans le temps long d'une transition, créer un espace dans le temps ordinaire continu, recomposer du lien social là où la mort a imposé un vide.... Etudier les rites funéraires, c'est donc s'intéresser aux réponses culturelles développées par les êtres humains face à la mort biologique, s'interroger sur les pratiques mises en place pour accompagner les défunts, mais aussi aborder la question du deuil et de la séparation des vivants d'avec leurs morts. -- Trois dimensions Pour transmettre ces connaissances, une nouvelle forme de communication multimédia a été mise au point au sein d'une équipe interdisciplinaire sciences humaines-informatique : «les eTalks», un nouveau nom que nous nous permettons d'utiliser désormais en français. Cette nouvelle forme est décrite plus bas. Quant à leur contenu, les eTalks proposés sont issus de deux cycles de formation continue organisés par l'Université de Lausanne et la Haute école pédagogique du canton de Vaud en 2010 et 2012. Les conférences, données par des professeurs d'université, de Hautes Ecoles ou par des praticiens, s'adressaient à un public provenant d'horizons professionnels très variés (enseignants, agents funéraires, membres du corps médical, représentants des communautés religieuses, etc.). Il est donc à relever que les genres littéraires de ces e-talks varient, depuis la communication académique standard, jusqu'aux témoignages de professionnels engagés sur le terrain. -- Pour des raisons de clarté, nous avons regroupé les eTalks en trois sous-thèmes: -- 1. A la découverte des cultures funéraires Génératrice de culture depuis la préhistoire, la mort suscite des attitudes et des pratiques diversifiées selon les époque et les sociétés. Les eTalks regroupés ici visent à présenter et à expliquer des pratiques funéraires développées dans trois traditions religieuses distinctes - l'Egypte ancienne, le monde réformé (du XVIe - XIXe siècle) et l'islam - et invitent ainsi à comparer des usages provenant d'horizons culturels très différents. -- 2. Rites funéraires sur le terrain Dans nos sociétés très institutionnalisées, la mort et les demandes de rites funéraires qui en découlent ont aussi un impact au sein des établissements professionnels que l'on fréquente à différentes étapes de nos vies. Les eTalks regroupés ici s'intéressent aux rites funéraires et à la gestion du deuil dans des institutions telles que l'école, les établissements médico-sociaux, le monde du travail et les pompes funèbres. Ils joignent des recherches menées sur le terrain et rendent compte des expériences vécues par les acteurs institutionnels confrontés à la mort. -- 3. Rites funéraires contemporains Certains déplorent la déperdition des rites funéraires dans nos sociétés contemporaines. Mais en est-il vraiment ainsi ? N'assiste-t-on pas aujourd'hui à une revitalisation des formes rituelles que ce soit à travers la reélaboration de pratiques anciennes ou la création de nouveaux rites ? Les eTalks regroupés ici démontrent en tous les cas une grande vitalité rituelle que ce soit par le biais de la réinterprétation et de l'adaptation des traditions religieuses ou de la créativité dont témoignent des non-croyants. Ils indiquent qu'après un temps marqué par l'éloignement de la mort, nous sommes peut-être engagés dans des formes multiples de réappropriation de cette dernière.
Resumo:
En réussissant à s’ancrer dans les Länder d’Allemagne occidentale, et en devenant de ce fait une formation politique “relevant” à l’échelle de l’ensemble de la République fédérale –et non de sa seule partie orientale–, le parti de la gauche antilibérale Die Linke (La Gauche) a mis fin au système quadripartite qui avait perduré outre-Rhin malgré la présence du Parti du socialisme démocratique au Bundestag depuis 1990. Interrogeant les succès électoraux de Die Linke, qui tiennent non seulement à des facteurs endogènes propres à l’Allemagne (plus grande sensibilité aux inégalités sociales depuis la réunification, désaffection touchant un SPD “désidéologisé” mis en difficulté par les réformes de l’Agenda 2010), mais aussi à des facteurs exogènes dont les effets se font sentir dans de nombreux autres pays européens (paupérisation des classes moyennes et inférieures, réaction anti-libérale à l’encontre des politiques de dérégulation prônées par l’Union Européenne, etc.), le présent article tente de cerner la menace électorale que ce nouvel acteur politique fait peser sur le SPD, ainsi que les réponses que ce dernier y apporte. Il montre également que la percée de Die Linke entraînera à court terme une redéfinition des jeux d’alliances partisanes affectant la constitution et la stabilité des exécutifs gouvernementaux aussi bien régionaux que fédéraux, et augmentant corollairement les risques de “cohabitation à l’allemande”.
Resumo:
L'analyse narrative permet d'apprécier comment une théologie se dit en narrativité. L'analyse narrative fait réaliser que la construction d'une intrigue, le dispositif d'un réseau de personnages ou la gestion de la temporalité sont autant d'indicateurs de l'intention théologique qu'un énoncé kérygmatique ou une confession de foi. C'est rendre justice aux auteurs bibliques que s'instruire des outils dont ils ont usé pour construire leur récit, quand bien même la théorisation narratologique leur était étrangère. Enfin, l'analyse narrative offre un appareil de lecture et un métalangage simple
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Cette année, six études utiles pour la pratique ont été retenues. L'indication à la mammographie entre 40 et 49 ans devrait être évaluée individuellement et en tenant compte des risques/bénéfices de cet examen. Au-delà de 65 ans, un dépistage systématique de la fibrillation auriculaire avec prise de pouls puis ECG (si pouls irrégulier) pourrait être réalisé de manière systématique. Les risques de complications postcolonoscopie existent, particulièrement suite à des biopsies/polypectomies, et ce risque devrait être discuté. Les inhibiteurs de la pompe à protons au long court sont un facteur de risque de fracture de hanche. S'il est important de prendre en charge des pressions artérielles élevées au-delà de 80 ans, il faut être prudent (orthostatisme). Une corticothérapie précoce suite à une paralysie faciale périphérique est efficace. This year we have selected six studies useful for the day to day practice. A mammography in women 40 to 49 years of age should be evaluated taking into account the patient's profile and the possible risks and benefits of this exam. In patients over 65 years of age, a systematic atrial fibrillation screening, with pulse rate measuring then ECG (if irregular beat) should be realised on a regular basis. The risks for complications following colonoscopies do exist, especially after biopsies/polypectomies and this risk should be discussed. Long term proton pump inhibitor treatment is a risk factor for hip fracture. It is important to treat high blood pressure problems in the elderly, but the orthostatic risks should be adressed. A corticoid treatment started quickly for Bell's palsy is efficient
Resumo:
Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
Gaysurvey est une enquête menée périodiquement en Suisse parmi les hommes qui ont des relations sexuelles avec des hommes (HSH). Elle s'inscrit dans le dispositif de surveillance du VIH, établi par l'Office fédéral de la santé publique, en tant qu'instrument de suivi des comportements face au VIH/sida dans ce groupe-cible. Elle a déjà été réalisée à huit reprises : en 1987, 1990, 1992, 1994, 1997, 2000, 2004, 2007. [...] Elle permet d'établir des tendances temporelles au niveau des pratiques sexuelles et des expositions au risque d'infection par le VIH. Elle permet, en outre, d'approfondir certaines thématiques pertinentes pour le travail de prévention (gestion du risque au sein d'une relation stable, entrée dans la sexualité, etc.). Ce document a pour objectif de faire la synthèse des tendances mises au jour lors de la dernière vague d'enquête, réalisée en 2007. [Introduction p. 4]