999 resultados para Acceptation du changement
Resumo:
Le présent travail avait comme objectif principal l’intégration des stratégies d’adaptation au Changement Climatique dans le Plans Municipaux. Les principales activités économiques de S. Domingos sont l’agriculture, l’élevage et la pêche toutes fortement menacées par le changement climatique. Pour conduire cette étude, nous avons d’abord mené une enquête auprès des principaux auteurs de développement local, à savoir les agriculteurs, les éleveurs et les pêcheurs et, aux des services techniques dans la municipalité, puis dépouiller les informations recueillies. Le dépouillement a été assuré grâce aux logiciels SPSS et CRiSTAL. De l’analyse de la vulnérabilité des populations locales, nous avons conclut que la municipalité est très vulnérable aux effets néfastes du changement climatique. Il ressort une nécessité urgente d’y promouvoir l’adaptation au changement climatique. Un ensemble de mesures d’adaptation considérées prioritaires a été proposé, afin qu’elles soient intégrées dans le PDM, en vue d’une amélioration de la productivité des systèmes agro-sylvopastoraux et halieutiques, dans la municipalité de São Domingos. Le PMACC proposé, en tant qu’outil de planification et de gestion intégrée, naturellement, privilégie une approche intersectorielle et intégrée; il pourra donc apporter un «plus» dans les actions d’adaptation au changement climatique dans la région
Resumo:
Entre el 14 i el 18 de març de 1998 es va celebrar a Barcelona la conferència Earth’s Changing Land sota la tutela dels programes internacionals Global Change in Terrestrial Ecosystems (GCTE) i Land Use and Land Cover Change (LUCC). L’objectiu principal de la trobada era presentar les darreres aportacions científiques sobre els efectes presents i previsibles del canvi global sobre els ecosistemes terrestres i la societat. Al mateix temps, es volia afavorir l’establiment de ponts de diàleg entre els professionals implicats en el canvi global
Resumo:
Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Rapport de synthèse : l .Objectif Evaluer l'effet qu'ont les consignes d'utilisation régulière d'un spray nasal à la nicotine sur leur véritable utilisation durant les 3 premières semaines d'un sevrage tabagique. Un objectif secondaire est d'évaluer l'effet des consignes d'utilisation régulière du spray durant les premières semaines de sevrage tabagique sur le taux de succès à 6 mois par rapport à un groupe pouvant utiliser le spray « ad libitum ». 2. Méthode II s'agit d'une étude ouverte, randomisée contrôlée, incluant 50 patients présentant une dépendance nicotinique forte, se trouvant en phase de préparation selon le modèle transthéorique du changement de Prochaska et Di Clemente, recrutés au sein de la consultation «stop tabac » de la Policlinique Médicale Universitaire de Lausanne. Dans le groupe «contrôle », les patients ont été instruits à utiliser le spray « ad libitum », soit dès qu'apparaissaient des envies irrésistibles de fumer, tandis que le groupe «intervention » a reçu pour consigne d'utiliser le spray au moins 1 fois par heure dès le lever, voire plus en cas d'envie de fumer. L'utilisation du spray nasal a été enregistrée par un dispositif électronique fixé sur le spray (MDILogTM) durant les 3 premières semaines d'utilisation. Durant le suivi, l'abstinence tabagique a été vérifiée par une mesure du taux de CO expiré par un appareil spécifique (Bedfont Smokerlyzer). L'abstinence tabagique a été considérée comme un succès si le taux de CO était s 10 ppm (particules par million). 3. Résultats Un patient a été perdu durant le suivi. Au moment de la randomisation, le groupe «intervention » comprenait plus de femmes, des patients ayant un nombre plus grand de précédentes tentatives d'arrêt du tabagisme, plus de co-morbidités psychiatriques, mais moins de co-morbidités somatiques que le groupe «contrôle ». Dans les 2 groupes, les participants ont utilisé le spray nasal plus de 8 fois par jour (minimum demandé dans le groupe intervention). L'utilisation moyenne du spray était de 13,6 doses/jour pour le groupe «intervention » et de 1 l,l doses/jour pour le groupe contrôle. Ajusté aux différences entre les 2 groupes, la différence entre les doses plus importantes utilisées dans le groupe «intervention »par rapport à celles du groupe « ad libitum »reste non significative durant la première (0.8 ; CI 95% -5.1 ; 6,7), la deuxième (4.0 ; CI 95% -1.9 ; 9.9) et la troisième semaine (3.0 ; CI 95% -2.5 ; 8.5). De même, le fait d'instruire le patient à utiliser chaque heure le spray nasal durant les premières semaines n'a pas eu d'impact sur le taux de succès à 6 mois (RR = 0.69 ; CI 95% 0.34 ; 1.39). 4. Conclusions Cette étude négative montre que les différences d'utilisation du spray nasal nicotinique sont plus dépendantes des caractéristiques individuelles du patient que des recommandations d'utilisation du thérapeute. Les patients présentant un syndrome de dépendance à la nicotine forte utilisent spontanément de manière importante le spray nasal nicotinique, indépendamment des recommandations données. Pour les patients présentant un syndrome de dépendance à la nicotine forte, les recommandations par le thérapeute d'utiliser le spray nasal dès l'apparition d'envies de fumer semblent être la manière de faire la plus adéquate.
Resumo:
L'épreuve « factuelle » et physique de la brûlure grave des grands brûlés de la face fait l'objet d'une analyse sociologique systématique : alors qu'un accident peut, en quelques secondes, provoquer une véritable rupture biographique, l'acceptation du nouveau statut et la « reconstruction » d'un rapport à soi et aux autres prend beaucoup de temps. Les modalités de cette reconstruction et les tentatives pour retrouver une impossible « apparence normale » dans la vie publique sont ici analysées. Tout en étant attentive aux modalités de l'interaction, la présente étude relève d'une démarche sociologique compréhensive menée à partir d'observations et d'entretiens conduits avec ces personnes, amenant dans le giron de la sociologie une expérience éprouvanteencore peu connue, celle des grands brûlés de la face. Le registre discursif adossé à cette dernière vient compléter certaines représentations véhiculées par les médias, les fictions et qui influent sur la perception et la visibilité de ceux-ci. A l'aune du concept d'épreuve issu de la « sociologie pragmatique », le parcours du grand brûlé peut être examiné en prêtant une attention particulière au moment initial du parcours post¬brûlure : l'accident. La mise en récit de cette première épreuve est révélatrice des tentatives pour le grand brûlé de maintenir un lien entre un avant et un après l'accident. S'ensuit un continuum d'épreuves intervenant dès le moment où les grands brûlés se présentent physiquement face à autrui dans l'espace public suscitant des réactions de gêne et de malaise. Dans le prolongement des travaux d'Erving Goffman, on peut les concevoir comme des motifs d'« inconfort interactionnel ». Cette mise en évidence de l'inconfort interactionnel montre la nécessité de ne pas se limiter à une sociologie de la brûlure grave qui s'attarderait seulement sur les ajustements des interactions. A partir des travaux d'Axel Honneth sur la reconnaissance, il est possible de lire cette gestion des situations d'interaction dans une autre optique, celle qui, pour le grand brûlé, consiste à se préserver du mépris. Ce travail met l'accent sur des habiletés interactionnelles, des compétences qui fonctionnent comme des ressorts et permettent au grand brûlé de gérer des situations susceptibles de conduire au mépris. En s'appuyant sur des situations d'interaction racontées, deux formes de lutte individuelle, de quête de reconnaissance, peuvent être dégagées : d'une part, la « lutte contre » la trop grande visibilité et contre la prégnance de certains préjugés et, d'autre part, la « lutte pour » faire connaître des aspects invisibles ou moins visibles de la brûlure grave. - This thesis analyzes the "factual" and physical ordeal of a severe burn as experienced by victims of severe facial burns. In a few seconds, an accident provokes a biographical rupture and persons involved need time to integrate their new status. This thesis concentrates on the "reconstruction" modes of the relationship with oneself and with others, and on attempts to find an impossible "normal appearance" in public life. While being attentive to the modalities of interaction, the study uses comprehensive sociology based on observations and interviews. This thesis brings into sociology litde known views of those suffering severe facial burns. These views supplement certain media representations that influence perceptions and visibility of the people involved. Applying the concept of test, a key concept of pragmatic sociology, the progression of a severely burned person can be described by focusing on the initial moment: the accident. The recounting of this first challenge reveals the severely burned person's efforts to link the "before" and "after" the accident. A continuum of challenges follows. These tests occur when the severely burned person physically faces others in a public space and when visible discomfort and embarrassment show, reactions which we consider, following Erving Goffman's works, as situations of "interactional discomfort." Emphasis on interactional discomfort shows the necessity of expanding the sociology of severe burns to more than just adjustments to interactions. Based on Axel Honneth's works, we can read the management of interactions from another point of view, in which the severely burned person tries to avoid contempt. This work emphasizes interactional aptitudes, skills that act like rebounding springs, and allow the severely burned person to manage situations that might lead to contempt. Starting with descriptions of interactions, we have determined two forms of individual struggle that appear to be a search for recognition: on one hand, the "struggle against" too much visibility and against the strength of certain prejudices, and, on the other hand, a "struggle for" making known rtain invisible or less visible aspects of a severe burn.
Resumo:
SummaryThe alcohol use of adolescents and young adults is one of the world's most important and costliest health problems. Particularly, binge drinking (i.e. drinking an important amount of alcohol in one occasion) among young people increase the risk of detrimental consequences such as blackouts, injuries, at-risk sexual behaviors, involvement in violent acts, academic failure, and suicide attempts. In countries with mandatory conscription mechanisms, such as Switzerland, the army provides a unique opportunity to reach a large portion of this high risk population. We used this sample to evaluate the prevalence of binge drinking among young men, to test the efficacy of brief motivational interventions (BMI) as a primary and secondary preventive measure, and to examine the mechanisms underlying BMI in this age group.We showed that binge drinking among young French-speaking Swiss men is less of an exception than it is the norm. Of those using alcohol, 75.5% had a binge drinking episode at least monthly, and 69.3% of all consumption reported in a one-week diary was due to binge drinking days.We used two different inclusion modes to evaluate the success of alcohol BMI. In the first randomized controlled trial, inclusion relied on a random selection of conscripts. BMI efficacy was evaluated in a sample of conscripts who visited the army recruitment centre that is potentially generalizable to the entire population. In the second randomized controlled trial, we included subjects voluntarily participating in BMI. This venue might be more realistic for young adults; it is more akin to the MI spirit, in which it is crucial for individuals to control their own decisions.Regarding BMI efficacy as a secondary prevention measure (i.e. to help decrease alcohol use among at-risk drinkers, defined here as those having a binge drinking episode at least monthly), it was effective among randomly selected at-risk drinkers, whereas it was not effective among at-risk drinkers who voluntarily showed up. Individuals who showed interest in BMI had more severe patterns of alcohol use, which may have made change more difficult and calls for treatment that is more intensive. BMI demonstrated a 20% reduction in weekly alcohol use among randomly selected participants, indicating potential interest in BMI implementation within similar community settings.Regarding BMI efficacy as a primary prevention measure (i.e. to help maintain low levels of use among low-risk drinkers), it had significant protective effects among low-risk drinkers voluntarily showing up whereas it was not effective among low-risk drinkers randomly selected. This suggests that BMI might help young individuals keep their drinking at low levels, especially when they are interested in discussing their alcohol use. Therefore, BMI has potentially promising uses in primary prevention efforts. The content of these interventions for low-risk drinkers who do not seek BMI on their own should be further evaluated.BMI mechanisms were addressed since little is known about exactly which elements of it work, or which of the counselor and subject communication behaviors are most effective in triggering behavior changes. The causal chain hypothesis developed in the motivational interviewing (MI) theory was followed, and it was found that counselor behaviors consistent with the MI approach (MICO) were significantly more likely to be followed by participant language in favor of change (change talk, CT), while behaviors inconsistent with MI (MIIN) were significantly less likely to do so. Several CT dimensions measured during BMI (particularly Ability, Desire, and Need to change) were predictive of change in alcohol use. Our findings lend strong support for the use of MICO behaviors and the avoidance of MIIN behaviors in eliciting CT, and point out that particular attention should be paid to the utterances in several sub-dimensions of CT and to the strength of expression, since these are good indicators of potential actual behavior change in future.RésuméLa consommation d'alcool chez les adolescents et les jeunes adultes est un des problèmes de santé les plus importants et les plus coûteux dans le monde. En particulier, les consommations importantes d'alcool en une occasion (binge drinking) parmi les jeunes adultes ont été liées à des conséquences telles que pertes de connaissance, accidents et blessures, comportements sexuels à risque, violences, difficultés scolaires et tentatives de suicide. Les pays qui, comme la Suisse, connaissent un processus de recrutement obligatoire pour l'armée offrent une opportunité unique d'atteindre une large portion de cette population à hauts risques. Nous avons utilisé cet échantillon pour évaluer la prévalence du binge drinking parmi les jeunes hommes, pour tester l'efficacité de l'intervention brève motivationnelle (IBM) comme mesure de prévention primaire et secondaire, et pour examiner les mécanismes sous-tendant ce type d'interventions.La première partie de cette étude montre que le binge drinking est moins une exception que la norme parmi les jeunes hommes suisses francophones. 75.5% des personnes consommant de l'alcool avaient au moins un épisode de binge drinking par mois et 69.3% du total des boissons alcoolisées reportées comme consommation de la semaine précédant le questionnaire avaient été consommées lors d'épisodes de binge drinking.Pour évaluer l'efficacité de l'IBM dans ce cadre, nous avons utilisé deux modes d'inclusion. Dans une première étude randomisée contrôlée, nous avons inclus des personnes sélectionnées au hasard parmi toutes celles se présentant au centre de recrutement, créant ainsi un groupe potentiellement représentatif de l'ensemble du collectif. Dans la deuxième étude randomisée contrôlée, nous avons inclus des sujets se présentant volontairement pour recevoir une IBM, prendre des volontaires pouvant être plus proche de la réalité et plus proche de l'esprit motivationnel dans lequel il est crucial que l'individu contrôle ses décisions.En regardant l'IBM comme mesure de prévention secondaire (c'est-à-dire aider à diminuer la consommation d'alcool chez les consommateurs à risque, définis ici comme au moins un épisode de binge drinking par mois), l'IBM était efficace lorsque les participants étaient inclus au hasard et inefficace lorsqu'ils étaient volontaires. Les jeunes hommes volontaires pour un IBM avaient un mode de consommation particulièrement sévère qui pourrait être plus difficile à changer et nécessiter un traitement plus intensif. Parmi les personnes sélectionnées au hasard, l'IBM permettait une diminution de 20% de la consommation hebdomadaire d'alcool, montrant l'intérêt potentiel d'une implémentation de ce type de mesures dans des contextes communautaires similaires.En ce qui concerne l'IBM comme mesure de prévention primaire (c'est-à-dire aider à maintenir une consommation à bas risque chez les consommateurs à bas risque), l'IBM avaient un effet protectif significatif parmi les jeunes hommes volontaires pour une IBM, mais pas d'effet chez ceux sélectionnés au hasard. Ces résultats suggèrent que l'IBM pourrait aider de jeunes personnes à maintenir un niveau de consommation à bas risque si celles-ci s'intéressent à discuter cette consommation et aurait ainsi un potentiel intéressant comme mesure de prévention primaire. Le contenu de l'IBM pour des consommateurs à bas risque non-volontaires pour une IBM devra encore être évalué.Nous avons ensuite examiné les mécanismes de l'IBM car son fonctionnement est encore peu expliqué et les comportements de l'intervenant et du sujet les plus à même de provoquer le changement ne sont pas bien définis. En suivant l'hypothèse d'une chaine causale développée dans la littérature de l'entretien motivationnel (EM), nous avons pu montrer qu'un discours en faveur du changement chez le sujet était plus probable après des comportements de l'intervenant recommandés dans l'EM et moins probable après des comportements à éviter dans l'EM ; et que plusieurs dimensions de ce discours en faveur du changement (notamment la capacité, le désir et le besoin de changer) prédisaient un changement effectif dans la consommation d'alcool. Ces résultats encouragent donc à utiliser des comportements recommandés dans l'EM pour favoriser un discours en faveur du changement. Ils montrent aussi qu'une attention particulière doit être portée à la fréquence et à la force avec laquelle sont exprimées certaines dimensions de ce discours car ceux-ci indiquent un potentiel changement effectif de comportement.Résumé vulgariséLa consommation d'alcool chez les adolescents et les jeunes adultes est un des problèmes de santé les plus importants et les plus coûteux dans le monde. En particulier, les consommations importantes d'alcool en une occasion (binge drinking) parmi les jeunes adultes augmentent fortement les risques de conséquences telles que pertes de connaissance, accidents et blessures, comportements sexuels à risque, violences, difficultés scolaires et tentatives de suicide. Les pays qui, comme la Suisse, connaissent un processus de recrutement obligatoire pour l'armée offrent une opportunité unique d'atteindre une large portion de cette population à hauts risques. Nous avons utilisé cet échantillon pour évaluer l'importance du phénomène de binge drinking, pour tester l'efficacité de l'intervention brève motivationnelle (IBM) comme mesure de prévention de la consommation à risque d'alcool, et pour examiner comment fonctionne ce type d'interventions.La première partie de cette étude montre que le binge drinking est moins une exception que la norme parmi les jeunes hommes suisses francophones. Trois quart des personnes consommant de l'alcool avaient au moins un épisode de binge drinking par mois. Presque 70% du total des boissons alcoolisées consommées durant la semaine précédant le questionnaire avaient été consommées lors d'épisodes de binge drinking.Nous avons ensuite mené deux études pour évaluer l'efficacité de l'IBM dans ce cadre. Dans une première étude, nous avons sélectionné des personnes au hasard parmi toutes celles se présentant au centre de recrutement, créant ainsi un groupe potentiellement représentatif de l'ensemble du collectif. Dans la deuxième étude, nous avons inclus toutes les personnes se présentant volontairement pour recevoir une IBM, prendre des volontaires pouvant être plus proche de la réalité et plus proche de l'approche motivationnelle dans laquelle il est crucial que l'individu contrôle ses décisions. Dans les deux études, nous testions l'efficacité de l'IBM comme mesure de prévention primaire et secondaire (voir ci-dessous).En regardant l'IBM comme mesure de prévention secondaire (c'est-à-dire aider à diminuer la consommation d'alcool chez les consommateurs à risque, définis ici comme au moins un épisode de binge drinking par mois), l'IBM était efficace lorsque les participants étaient inclus au hasard et inefficace lorsqu'ils étaient volontaires. Les jeunes hommes volontaires pour un IBM avaient un mode de consommation particulièrement sévère qui pourrait être plus difficile à changer et nécessiter un traitement plus intensif. Parmi les personnes sélectionnées au hasard, l'IBM permettait une diminution de 20% de la consommation hebdomadaire d'alcool, montrant l'intérêt potentiel de la mise en place de ce type de mesures dans des contextes communautaires similaires.En ce qui concerne l'IBM comme mesure de prévention primaire (c'est-à-dire aider à maintenir une consommation à bas risque chez les consommateurs à bas risque), l'IBM avaient un effet protectif parmi les jeunes hommes volontaires pour une IBM, mais pas d'effet chez ceux sélectionnés au hasard. Ces résultats suggèrent que l'IBM pourrait aider de jeunes personnes à maintenir un niveau de consommation à bas risque si celles-ci s'intéressent à discuter de cette consommation. Le contenu de l'IBM pour des consommateurs à bas risque non-volontaires pour une IBM devra encore être évalué.Nous avons ensuite examiné le fonctionnement de l'IBM et cherché quels comportements de l'intervenant et du jeune homme pouvaient être les plus à même d'amener à un changement dans la consommation. Nous avons pu montrer que 1) un discours en faveur du changement chez le jeune homme était plus probable après des comportements de l'intervenant recommandés dans l'approche motivationnelle et moins probable après des comportements non-recommandés ; et 2) plusieurs dimensions de ce discours en faveur du changement (notamment la capacité, le désir et le besoin de changer) prédisaient un changement effectif dans la consommation d'alcool. Ces résultats encouragent donc à utiliser des comportements recommandés dans l'EM pour favoriser un discours en faveur du changement. Ils montrent aussi qu'une attention particulière doit être portée à certaines dimensions de ce discours car celles-ci indiquent un potentiel changement effectif de comportement.
Resumo:
Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.
Resumo:
Le management stratégique est devenu un outil de gestion presque incontournable dans les organisations publiques, notamment du fait de la généralisation de la contractualisation et de gouvernance à distance. Bien sûr, gérer sur la base d'une stratégie afin d'atteindre des objectifs précis paraît fort raisonnable. Cependant, l'étude du fonctionnement contemporain des organisations publiques démontre que le management stratégique se limite bien souvent à des stratégies de contrôle, conduisant à une bureaucratisation accrue des organisations publiques en lieu et place d'une plus grande liberté managériale. Nous expliquons ce mécanisme en prenant pour exemple le secteur hospitalier suisse en pleine restructuration.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.
Resumo:
L'interaction thérapeutique avec les patients présentant un trouble de la personnalité a été décrite comme difficile et volatile. Récemment, les thérapies cognitivo-comportementales (TCC) s'approchent de ces difficultés par des traitements manualisés et des modélisations complexes, ce qui tend à laisser dans l'ombre l'acteur principal du changement en psychothérapie : le patient. La présente lecture intégrative discute plusieurs mécanismes de changement actifs chez les patients avec trouble de la personnalité. Premièrement, il est décrit que les problèmes d'interaction, résumés sous le terme des jeux interactionnels, posent des défis spécifiques. Le thérapeute est ainsi amené à favoriser une interaction thérapeutique authentique, en utilisant notamment une forme individualisée d'intervention, la relation thérapeutique centrée sur les motifs. Deuxièmement, il est décrit que les problèmes de conscience et de différenciation émotionnelles entravent la qualité du traitement des troubles de la personnalité. Le thérapeute est ainsi conseillé d'utiliser des techniques empruntées aux thérapies néo-humanistes, notamment la directivité de processus, afin d'approfondir l'affect émergeant en séance. Troisièmement, il a été décrit qu'une identité sociale affirmée fait souvent défaut chez les patients avec trouble de la personnalité. Les thérapeutes avisés peuvent favoriser ce processus avec des interventions ciblées. En conclusion, une focalisation sur les comportements observables du patient - les processus réels en séance -, est productive, et elle permet au thérapeute d'affiner, de préciser et d'approfondir son intervention, au plus près du patient.
Resumo:
Les technosciences (numériques, bio- et nanotechnologies, neurosciences, médecine personnalisée, biologie de synthèse) sont accompagnées de promesses fabuleuses à l'attention du public et des décideurs. L'économie des promesses qui en résulte affecte le régime de financement de la recherche et la gouvernance du changement sociotechnique. Elle crée de l'engouement, soutient la compétition scientifique, attire des ressources financières et légitime d'importantes dépenses publiques. Cet ouvrage met en évidence les cycles accélérés d'enthousiasme et de désillusion, les décalages entre horizons d'attente et les questions démocratiques qu'ils soulèvent. Fondé sur des recherches de terrain relevant de l'étude sociale des sciences et des techniques, de la philosophie et de l'histoire, il examine les formes alternatives d'organisation de la recherche, de participation citoyenne et de répartition des droits de propriété et des bénéfices, et montre qu'une forme de ralentissement des promesses, non des sciences, favoriserait l'articulation de ces dernières avec les besoins de la société. L'ambition des textes réunis ici est d'ouvrir le débat en langue française en interrogeant directement le régime des promesses technoscientifiques.