283 resultados para Outil prédictif
Resumo:
L'hormonoradiothérapie concomitante est utilisée depuis plusieurs années en pratique clinique quotidienne dans les cancers localement évolués de la prostate. Le transfert de ce concept en pathologie mammaire a été très peu rapporté dans la littérature, mais semble pourtant licite devant l'hormonodépendance fréquente des cancers du sein et la synergie potentielle de ces deux armes thérapeutiques. En situation adjuvante, deux stratégies sont actuellement utilisées : la prescription d'un inhibiteur de l'aromatase d'emblée ou après un délai plus ou moins long de tamoxifène. En pratique, ces molécules peuvent donc interagir avec la radiothérapie adjuvante. Les études rétrospectives récemment publiées n'ont pas mis en évidence de différence significative sur l'incidence des évènements, notamment locorégionaux, de l'association concomitante ou séquentielle du tamoxifène à la radiothérapie. La toxicité de l'association reste discutable en termes de fibroses sous-cutanée et pulmonaire. Il semble que le tamoxifène aggraverait les séquelles postradiques uniquement chez les patientes prédisposées à souffrir d'effets tardifs de la radiothérapie et identifiées par un test prédictif biologique. La prudence reste donc encore de mise du moins pour ces patientes. Cet article détaille les avantages et les risques de l'utilisation concomitante de la radiothérapie et de l'hormonothérapie adjuvantes des cancers localisés du sein. Combined radiation and hormone therapies have become common clinical practice in recent years for locally-advanced prostate cancers. The use of such concomitant therapy in the treatment of breast disease has been infrequently reported in the literature, but seems justified given the common hormonal dependence of breast cancer and the potential synergistic effect of these two treatment modalities. As adjuvant therapy, two strategies are used in daily clinical practice: upfront aromatase inhibitors or sequentially after a variable delay of tamoxifen. These molecules may, thus, interact with radiotherapy. Retrospectives studies recently published did not show any differences in terms of locoregional recurrences between concurrent or sequential radiohormonotherapy. Lung and skin fibroses due to concurrent treatment are still under debate. Nevertheless, late side effects appeared to be increased by such a treatment, particularly in hypersensitive patients identified at risk by the lymphocyte predictive test. Concurrent radiohormonotherapy should, thus, be delivered cautiously at least for these patients. This article details the potent advantages and risks of concurrent use of adjuvant hormonotherapy and radiotherapy in localized breast cancers.
Resumo:
Résumé de la thèseLe présent travail analyse la notion d'autonomie en éthique biomédicale et en propose unecompréhension à partir des théories de la délibération éthique. La thèse s'articule en deux parties.La première partie consiste en l'examen de la conception de l'autonomie développée en éthiquebiomédicale. Notamment, on retrace les origines de la notion de l'autonomie du patient dans lecontexte états-unien, on analyse l'élaboration de l'autonomie sous la forme de principe éthique, etl'on considère les critiques qui lui ont été adressées. Cette première partie débouche sur la thèsesuivante: en éthique biomédicale, l'autonomie est pensée comme un outil pour la légitimation deschoix, des pratiques, ou des politiques de santé, non pas comme réflexion critique sur les raisonspour agir ou sur les conditions des choix. Le risque est que l'autonomie se réduise à un dispositif dereproduction des normes et des conditions de l'interaction, sans pour autant remettre en discussionla rationalité médicale qui prédispose les options de choix et qui justifie les pratiques et lespolitiques dans le contexte du soin. Cette conception de l'autonomie présuppose une théorie de ladélibération éthique «en troisième personne». Selon cette théorie, la délibération consiste en uneprise de distance du point de vue subjectif de l'agent, pour assumer un point de vue plus objectif: lepoint de vue d'un «spectateur» impartial. Ainsi, le but de la délibération éthique est l'élaboration deraisons morales objectives, partageables par toute personne raisonnable, pouvant générer unconsensus sur la justification des actions. Cette théorie de la délibération a une implicationimportante pour la conception de l'autonomie en éthique biomédicale: l'autonomie est représentéecomme un principe moral partageable, comme le résultat d'un processus d'abstraction réflexive.Selon une théorie de la délibération éthique différente, que l'on appelle «en première personne», onpeut apprécier la valeur de l'autonomie seulement du point de vue de l'«agent». Ainsi, l'autonomieest la véritable modalité de la délibération éthique, dont le but est la constitution de soi-même, deson intégrité et identité morale. Dans ce travail, on s'est donc demandé si et comment cette manièrede concevoir la délibération du point de vue de l'agent peut apporter quelque chose à lacompréhension de la valeur de l'autonomie personnelle en éthique biomédicale.La deuxième partie de la thèse explore deux modèles de l'autonomie en première personnedéveloppés dans le débat philosophique plus récent: le modèle «hiérarchique» et le modèle«constructiviste kantien». Les deux modèles débouchent sur une compréhension «monologique» del'autonomie, qui est centrée sur l'agent et qui ne tient pas suffisamment compte du contexterelationnel du soin. Pour apprécier la valeur de l'autonomie dans les relations intersubjectives il fautadopter une perspective différente, que l'on appelle «en deuxième personne». Selon cette théorie, ladélibération est un dialogue entre les agents et l'autonomie est issue d'une relation de respect etreconnaissance réciproque. Comme l'autonomie est toujours issue d'une relation de réciprocité,comme elle est essentiellement relationnelle, elle n'est pas une entreprise simplement singulièremais toujours et inévitablement plurielle, collective. Ainsi, l'autonomie peut représenter un idéalnon seulement personnel mais aussi public. Il s'agit d'un idéal qu'on peut adopter dans nos relationsréciproques, un idéal normatif qui nous demande d'interroger la praticabilité de l'autonomie, c'est-àdired'identifier les sources de sa vulnérabilité. Cette vulnérabilité se situe à trois niveaux: au niveaudes relations interpersonnelles, au niveau des pratiques et des institutions, et au niveau des liensd'appartenance à des communautés culturelles ou à des groupes sociaux, qui contribuent à définirles relations réciproques et donc l'exercice de l'autonomie. Ces trois sources de vulnérabilité del'autonomie se retrouvent, toutes les trois, dans le contexte du soin. Selon cette conception del'autonomie, le but de la délibération n'est ni l'élaboration des raisons objectives, ni simplement laconstitution de sa propre identité ou intégrité, quant plutôt la construction de notre monde social.Ainsi, l'autonomie est quelque chose dont on est responsables, quelque chose qui nous engage àentrer en dialogue avec l'autre comme interlocuteurs dans une communauté morale.
Resumo:
Summary The specific CD8+ T cell immune response against tumors relies on the recognition by the T cell receptor (TCR) on cytotoxic T lymphocytes (CTL) of antigenic peptides bound to the class I major histocompatibility complex (MHC) molecule. Such tumor associated antigenic peptides are the focus of tumor immunotherapy with peptide vaccines. The strategy for obtaining an improved immune response often involves the design of modified tumor associated antigenic peptides. Such modifications aim at creating higher affinity and/or degradation resistant peptides and require precise structures of the peptide-MHC class I complex. In addition, the modified peptide must be cross-recognized by CTLs specific for the parental peptide, i.e. preserve the structure of the epitope. Detailed structural information on the modified peptide in complex with MHC is necessary for such predictions. In this thesis, the main focus is the development of theoretical in silico methods for prediction of both structure and cross-reactivity of peptide-MHC class I complexes. Applications of these methods in the context of immunotherapy are also presented. First, a theoretical method for structure prediction of peptide-MHC class I complexes is developed and validated. The approach is based on a molecular dynamics protocol to sample the conformational space of the peptide in its MHC environment. The sampled conformers are evaluated using conformational free energy calculations. The method, which is evaluated for its ability to reproduce 41 X-ray crystallographic structures of different peptide-MHC class I complexes, shows an overall prediction success of 83%. Importantly, in the clinically highly relevant subset of peptide-HLAA*0201 complexes, the prediction success is 100%. Based on these structure predictions, a theoretical approach for prediction of cross-reactivity is developed and validated. This method involves the generation of quantitative structure-activity relationships using three-dimensional molecular descriptors and a genetic neural network. The generated relationships are highly predictive as proved by high cross-validated correlation coefficients (0.78-0.79). Together, the here developed theoretical methods open the door for efficient rational design of improved peptides to be used in immunotherapy. Résumé La réponse immunitaire spécifique contre des tumeurs dépend de la reconnaissance par les récepteurs des cellules T CD8+ de peptides antigéniques présentés par les complexes majeurs d'histocompatibilité (CMH) de classe I. Ces peptides sont utilisés comme cible dans l'immunothérapie par vaccins peptidiques. Afin d'augmenter la réponse immunitaire, les peptides sont modifiés de façon à améliorer l'affinité et/ou la résistance à la dégradation. Ceci nécessite de connaître la structure tridimensionnelle des complexes peptide-CMH. De plus, les peptides modifiés doivent être reconnus par des cellules T spécifiques du peptide natif. La structure de l'épitope doit donc être préservée et des structures détaillées des complexes peptide-CMH sont nécessaires. Dans cette thèse, le thème central est le développement des méthodes computationnelles de prédiction des structures des complexes peptide-CMH classe I et de la reconnaissance croisée. Des applications de ces méthodes de prédiction à l'immunothérapie sont également présentées. Premièrement, une méthode théorique de prédiction des structures des complexes peptide-CMH classe I est développée et validée. Cette méthode est basée sur un échantillonnage de l'espace conformationnel du peptide dans le contexte du récepteur CMH classe I par dynamique moléculaire. Les conformations sont évaluées par leurs énergies libres conformationnelles. La méthode est validée par sa capacité à reproduire 41 structures des complexes peptide-CMH classe I obtenues par cristallographie aux rayons X. Le succès prédictif général est de 83%. Pour le sous-groupe HLA-A*0201 de complexes de grande importance pour l'immunothérapie, ce succès est de 100%. Deuxièmement, à partir de ces structures prédites in silico, une méthode théorique de prédiction de la reconnaissance croisée est développée et validée. Celle-ci consiste à générer des relations structure-activité quantitatives en utilisant des descripteurs moléculaires tridimensionnels et un réseau de neurones couplé à un algorithme génétique. Les relations générées montrent une capacité de prédiction remarquable avec des valeurs de coefficients de corrélation de validation croisée élevées (0.78-0.79). Les méthodes théoriques développées dans le cadre de cette thèse ouvrent la voie du design de vaccins peptidiques améliorés.
Resumo:
The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux
Resumo:
Comment dans notre travail thérapeutique, aborder le vécu douloureux de nos patients gravement traumatisés, sans s'y enfermer ni blesser une fois de plus la victime ? C'est avec cette préoccupation et face à bon nombre de nos patients qui se retrouvent enfermés dans un seul ressenti qui envahit tout, jusqu'à leur identité même, que nous avons eu l'idée de travailler avec le Mandala des émotions, fait de sables colorés. Nous présenterons cette technique, utilisée comme un objet flottant, au travers de deux vignettes cliniques de suivi individuel : l'une avec un enfant et la seconde avec un adulte. Nous exposerons comment cet outil permet la création d'un espace intersubjectif où thérapeutes et patients se rencontrent autour de l'exploration du vécu intérieur post-traumatique et de l'élaboration d'une renarration du récit de vie de la victime.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
Le concept de mécanismes de défense en psychanalyse fut introduit pour la première fois par S. Freud en¦1894 dans l'ouvrage Les psychonévroses de défense. Selon la définition qu'on lui donne de nos jours, ce¦concept regroupe « les processus psychiques inconscients visant à réduire ou annuler les effets désagréables des dangers réels ou imaginaires en remaniant les réalités internes et / ou externes et dont les manifestations peuvent être conscientes ou inconscientes1.»¦Les mécanismes de défense ne concernent d'ailleurs pas seulement les personnes souffrant d'un trouble¦psychiatrique, chacun de nous utilisant quotidiennement toutes sortes de défenses de quelque niveau de¦maturité qu'elles soient, nous permettant de nous adapter au contraintes affectives de tous les jours. Ils¦représentent de plus l'un des rares concepts en psychanalyse se prêtant à l'étude empirique, c'est pourquoi ils revêtent un grand intérêt dans la recherche actuellement. Grâce à l'élaboration d'une échelle d'évaluation de ces mécanismes par J. C. Perry (2009), le Defense Mechanisms Rating Scale, il est devenu possible de mettre en évidence « des liens entre les défenses et le niveau d'adaptation des patients, entre les défenses et la psychopathologie, et de montrer l'évolution des défenses au cours des psychothérapies psychanalytiques2.»¦Le DMRS comprend 28 défenses classées en 7 niveaux hiérarchiques en fonction de leur niveau¦d'adaptation. Il ne comprend cependant pas encore les défenses dites psychotiques. Toutefois, un groupe de travail s'attache à construire, puis à valider un instrument d'évaluation de ces mécanismes sous la forme d'un addendum au DMRS.¦Le but de mon travail sera d'évaluer quatre entretiens, deux de patients souffrant d'un trouble du spectre de la schizophrénie, deux d'un trouble bipolaire, sur la base des données recueillies par l'institut de¦psychothérapie du CHUV. A l'aide du DMRS, j'effectuerai une cotation de leur mécanismes de défense¦respectifs. Pour ce faire, il s'agira dans un premier temps de me familiariser avec l'outil qu'est le DMRS afin de pouvoir, dans un deuxième temps, mettre en évidence et analyser les mécanismes de défense utilisés par les patients lors de ces entretiens psychothérapeutiques. Les patients devraient montrer un niveau défensif global comparable, en vue de la gravité de leur pathologie. Cependant, des différences devraient apparaître quant aux catégories de défenses utilisées par chaque patient, puisque celles-ci dépendent de leur pathologie ainsi que de leur fonctionnement psychique pour faire face aux difficultés qu'il rencontre. Enfin, leurs niveaux défensifs seront pondérés par ce dont ils parleront dans l'entretien en question, en lien avec les interventions du thérapeute.¦Ce travail devrait me permettre de montrer que tout patient présente un large éventail de défenses, et pas¦seulement des défenses dites psychotiques. Il s'agira aussi de monter quelles sont les applications possibles et les limites de l'outil qu'est le DMRS.
Resumo:
Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.
Resumo:
Pour honorer Edith Tilmans-Ostyn, j'ai choisi de parler de « consultance », selon sa définition, avec différentes utilisations du jeu trilogique de Lausanne, dit LTP (Lausanne Trilogue Play). Elaboré au Centre d'Etude de la Famille à Lausanne avec Elisabeth Fivaz-Depeursinge, cette situation se prête aussi bien à l'évaluation des interactions familiales à des fins de recherche que comme outil clinique pour des interventions thérapeutiques, objectif de la consultance. Etant aussi à l'aube de ma retraite professionnelle, j'ai retracé dans cet article des situations où j'étais impliquée personnellement comme consultante-thérapeute avec différents aménagements possibles du jeu (jeu père-mère-bébé, jeu prénatal avec une poupée, jeu thérapeute-mère-bébé). Ces descriptions cliniques s'accompagnent de réflexions sur les propriétés de la consultance, les spécificités des interventions thérapeutiques sur les relations familiales précoces et l'usage de la vidéo: en quelque sorte un passage de témoin, une transmission d'un certain savoir-faire.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
Compte tenu des relations étroites existant entre le pouvoir politique et l'histoire - et plus particulièrement l'enseignement de l'histoire à l'école - , les manuels constituent un objet d'étude privilégié de l'évolution des relations pouvoir/enseignement. Ils fournissent un lieu de médiation privilégié entre les savoirs savants et les savoirs scolaires institutionnels ; ils permettent d'observer les conceptions didactiques préconisées par l'institution scolaire. Si, sous l'égide de l'Etat-nation au 19e siècle, les savoirs savants historiques et les savoirs scolaires étaient entremêlés, les rapports se sont complexifiés durant le 20e siècle en raison notamment de la prise de distance progressive de l'histoire savante à l'égard du pouvoir. Petit à petit, à partir des années 1930, le concept d'histoire- problème, initié par l'école historique des Annales, dépasse l'histoire-récit de l'école historique positiviste (méthodique) du 19e siècle et sa traduction du récit- national au coeur de la leçon d'histoire. Cependant, si après 1945, l'école des Annales, puis la Nouvelle histoire, tendent à s'imposer dans le champ de l'histoire savante francophone, elles se heurtent à une tradition scolaire bien établie et modifient peu et tardivement les curricula, les manuels et les pratiques enseignantes. Progressivement donc, une fracture apparaît entre l'histoire savante et l'histoire scolaire. Dans cette étude, notre travail envisage l'analyse du manuel d'histoire en tant qu'objet hybride. Il est à la fois porteur d'un texte historien, ouvrage de vulgarisation et de référence, ainsi qu'outil pédagogico-didactique. Par ailleurs, le manuel d'histoire a la charge de transmettre des valeurs, car les finalités attribuées par l'autorité politique, via les autorités scolaires, à l'histoire scolaire comportent toujours une dimension forte de formation du futur citoyen. Au texte de départ sont associés des documents textuels ou iconiques, des résumés, des questions regroupées par chapitre, un glossaire ou une chronologie générale. De plus, ce texte est encadré d'un dispositif didactique plus ou moins explicite : préface, numérotation par paragraphe correspondant à la leçon du jour, dates mises en évidence, aide-mémoire et questions. Par ailleurs, les découpages en livres ou en parties peuvent correspondre à des années (ou parties d'années) de programme. Il sera donc également étudié pour les spécificités d'un sous-genre de discours à définir : les manuels - d'histoire - produits (et utilisés) dans le canton de Vaud au 20e siècle. En conséquence, notre travail se propose d'observer et d'analyser les manuels d'histoire vaudois sous deux modalités préférentielles. Premièrement, celle des formes constitutives et évolutives prises par le manuel pour se construire comme un discours légitimé (deuxième partie : écriture et mise en scène de l'histoire). Deuxièmement, celle de la mise en scène d'une histoire à visée pseudo- pédagogique masquant l'intégration du discours de l'autorité politique (troisième partie : comment l'autorité vient au discours). Site internet : http://manuelshistoire.ch
Resumo:
La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.