1000 resultados para Forêts--Incendies--Prévention et maîtrise--Planification--Modèles mathématiques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME L'objectif de cette thèse est d'approfondir la compréhension de la transformation des conflits liés à l'utilisation et la répartition des ressources foncières, de l'eau ainsi que des ressources politiques en région aride ou semi-aride. Cette thèse se concentre en particulier sur la façon dont les acteurs et les institutions résolvent les conflits dans un espace dominé par un mode de vie pastoral au sein des pays de la Corne de l'Afrique. Celle-ci réunit des zones périphériques mal contrôlée et caractérisée par une faible administration publique qui coexiste avec des instances coutumières et d'autres autorités. Le cas de la région Somali d'Ethiopie (ou Ogaden) nous démontre que les disputes et les pratiques de gestion des conflits existantes sont encastrées dans les normes, les politiques et les relations de pouvoir locales. Par conséquent, ce travail réfute le déterminisme causal de la littérature des conflits dits environnementaux en soulignant l'existence d'une vaste palette de stratégies de résolution des conflits. Il démontre empiriquement la capacité des éleveurs, des paysans et d'autres utilisateurs de ressources en propriété commune («common- pool resources », CPRs) à coopérer plutôt qu'à se disputer. De la même façon, la préférence idéologique de la plupart des études sur les CPRS pour des groupes d'utilisateurs homogènes et des systèmes de ressources d'utilisation simple est remise en question. En effet, l'existence de multiples ressources naturelles et politiques dans la région Somali d'Ethiopie justifie cette remise en cause. En soulignant l'économie politique dans laquelle se situent les conflits pastoraux et leur gestion cette thèse critique l'approche dépolitisée sur l'utilisation des ressources en propriété commune ainsi que les perspectives technocratiques sur les processus de construction des institutions. Les résultats de recherche marquent le rôle central et souvent inattendu de l'état dans la formation des conflits et la gestion des ressources dans sa périphérie pastorale. Avec |'introduction du fédéralisme ethnique éthiopien et la décentralisation administrative, la construction de l'état à pris une tournure nouvelle dans la région Somali depuis |991 - la période analysée dans cette étude. Ce processus fut accompagné de trois dynamiques parallèles (1) L'expansion des ressources étatiques dans les zones rurales les plus reculées, (2) la politisation des liens de parenté et (3) la redéfinition de la relation entre l'homme et son environnement naturel. En ce qui concerne l'atténuation des conflits, la thèse révèle que le rôle de l'état est spatialement différentié, que l'incorporation des autorités coutumières dans les gouvernements locaux est politiquement ambiguë, et que l'appui sur les lois coutumières ne « gèle » pas forcement les traditions. Les institutions mixtes qui allient règles coutumières et bureaucratiques sont souvent efficaces dans la gestion et la résolution des conflits liés aux ressources en milieu rural, mais pas dans la prévention et la transformation de ces conflits sur le long terme. En ce qui concerne la gestion des ressources, l'étude souligne le fait que les politiques publiques institutionnelles qui ignorent les variations saisonnières de l'utilisation des ressources, la multiplicité des revendications par les utilisateurs des ressources et les droits de propriété non exclusif ne font qu'aggraver des tensions entre divers groupes plutôt que de les atténuer. C'est précisèrent le cas de la décentralisation selon la logique « ethnique » de l'Ethiopie et d'autres politiques publiques sectorielles dont le but est de promouvoir la sédentarisation en incitant les groupes pastoraux à réclamer et occuper les territoires de manière permanente. En conclusion, cette thèse insiste sur (1) l'importance du renforcement du système de régulation au sein du régime institutionnel de ressources pastorales, (2) l'élaboration de nouvelles normes qui produisent des arrangements fonciers reconnus à la fois par les communautés et l'état, (3) la conception de politique publiques qui prennent en compte le périmètre des écosystèmes en place plutôt que des entités ethniques ou politiques et (4) le besoin d'un processus de démocratisation des projets de développement et de la représentation politique en périphéries semi-aride. L'étude est composée des chapitres suivants. Le chapitre 1 introduit les éléments clés des systèmes d'élevage dans la Corne de l'Afrique et les transitions économiques, écologiques et politiques dans lesquelles se situe le pastoralisme nomade. Quelques thèmes récurrents sont ici résumés dont le déclin des économies de cheptel, l'érosion de la gestion des terres arides et l'expansion de l'insécurité physique. Le chapitre 2 dissèque de manière critique le concept de conflit environnemental et les théories de la propriété commune en tant qu'explications théoriques des conflits dits pastoraux. Tandis que le premier décrit la violence comme une réaction à la raréfaction des ressources naturelles due aux pressions démographiques et au changement climatique, les secondes considèrent les confits comme l'expression d'un échec institutionnel de droits de propriété insuffisamment définis. Ce chapitre expose les défauts de ces deux explications et propose une approche alternative qui tient compte des relations de pouvoir, des institutions de gestion des conflits et des ressources naturelles, et de l'écologie non-équilibrée des régions arides. Le chapitre 3 élabore un cadre conceptuel qui rassemble des perspectives empruntées à la littérature portant sur la gestion des ressources naturelles, les techniques de médiation des conflits, les nouvelles théories « new range ecology » et les régimes institutionnels de ressources naturelles. Trois hypothèses décrivent les conditions requises pour prévenir, résoudre ou transformer les conflits liés à l'utilisation multiple des ressources dans les zones pastorales. Elles concernent (1) l'inclusion de partis tiers dans les processus de gestion de confits, (2) l'intégration de règles bureaucratiques et coutumières dans la gestion des ressources et des conflits et (3) le régime institutionnel de ressources naturelles qui concilie des revendications multiples aux ressources CPRs de manière flexible et inclusive. Le chapitre 4 présente les méthodes et la philosophie de recherche qui sous-tendent l'argumentation et l'analyse de la thèse. Il détaille l'opérationnalisation du cadre conceptuel et la sélection des études de cas, le processus de collecte des données et se penche sur les expériences de recherches de terrain de l'auteur. Le chapitre 5 décrit les conflits fonciers dans le district de Harshin où une expansion incontrôlée de clôtures des pâturages a encouragé la prolifération de conflits violents parmi les éleveurs Isaaq depuis la fin des années 1980. L'hétérogénéisation de l'utilisation des ressources, la multiplication des règles de gestion et l'incapacité des anciens à imposer un retour à la propriété commune des pâturages sont les points centraux de cette étude de cas. Le chapitre 6 passe en revue la compétition féroce autour de l'eau le long de la berge très peuplée et fertile du Wabi Shabelle dans le district de K'elafo. L'étude de cas reflète les interactions généalogiques complexes entre les groupes "nobles" et les « communs », la dépendance des cultivateurs Rer Barre du capital et de la technologie, pour les pompes à eaux par exemple, et l'importance continue des pratiques coutumières de gestion de l'agriculture. Le chapitre 7 démontre les rivalités autour du gâteau fiscal dans la capitale de la région Somali, Jijiga, où les partis politiques, les anciens claniques et les technocrates manoeuvrent pour le partage du pouvoir et des positions au sein de l'administration régionale. L'étude de cas rend compte de l'usage politisé du budget public, de l'expansion des ressources étatiques dans les zones rurales à travers la décentralisation, et de l'importance des agents intermédiaires entre les niveaux fédéral, régional et local dans l'allocation des ressources. Le chapitre 8 analyse les rôles et contributions respectifs des anciens et des acteurs étatiques dans la gestion de conflits violents entre les différents groupes dans la région Somali. En révélant les points forts et faibles des processus de paix basés sur les compensations de sang, ce chapitre propose une appréciation nuancée de la proposition (1) concernant l'inclusion de partis tiers dans la gestion de conflit. Le chapitre conclut en soulignant les contradictions et les effets associés à la délégation aux autorités coutumières par l'état Ethiopien de la résolution des conflits et de la maintenance de la sécurité. Le chapitre 9 se concentre sur l'impact des projets de développement financés par l'état et des politiques publiques qui régulent la propriété des terres communes dans les régions pastorales de l'Ethiopie. Ni les politiques publiques sectorielles existantes ni les principes institutionnels du fédéralisme ethnique ne reconnaissent les revendications et utilisations multiples qui se font des ressources dans la région aride et semi- aride, ce qui valide la proposition (3) sur le besoin d'un régime institutionnel de ressources différencié et flexible. Le chapitre attire l'attention sur les aspects contre-productifs d'une administration et d'une représentation politique basées sur un concept territorial, ce qui encourage une occupation permanente des ressources pour des bénéfices politiques. Le chapitre 10 conclut en évaluant la proposition (2) qui concerne l'efficacité de la gestion et de la transformation des conflits basés sur l'intégration des règles et lois coutumières et bureaucratiques. Ce chapitre souligne le rôle controversé mais décisif de la construction et de l'expansion graduelle de l'état dans les périphéries pastorales. Finalement, quelques recommandations sont proposées en vue de l'amélioration de la gestion des conflits et des ressources en milieu pastoral clans la région Somali et des espaces comparables dans la Corne de l'Afrique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En France, la décentralisation et la territorialisation de l'action publique ont fait des sports de nature un objet d'action publique légitime en donnant naissance à de nouveaux outils de management public dédiés à la concertation et à la planification des usages de la nature. Nés de l'article 52 de la Loi sur le sport modifiée en 2000, la Commission Départementale des Espaces, Sites et Itinéraires relatifs aux sports de nature (CDESI) et le Plan Départemental des Espaces Sites et Itinéraires relatifs aux sports de nature (PDESI) sont des outils de concertation territoriale dédiés à la gestion publique des sports de nature au niveau départemental. Un enjeu de ce travail tient à l'appréhension des transformations de l'action publique en s'attachant à l'étude des dispositifs de concertation sur les sports de nature. Un deuxième enjeu de ce travail s'attache à mettre en évidence les effets de la concertation en analysant les interactions et les différents modes d'engagements des acteurs au cours de la « chose publique en train de se faire » (Cefaï, 2002). Les acteurs s'engagent non seulement dans la concertation comprise comme une activité sociale faite d'interactions, mais ils s'engagent également dans la concertation en tant que processus d'action publique. Aussi, un autre enjeu de ce travail est d'appréhender les effets de la concertation par une analyse processuelle des engagements (Fillieule, 2004) des acteurs et des organisations. En mobilisant les outils conceptuels de la sociologie interactionniste, de la sociologie pragmatique, ainsi que de la sociologie structuraliste, l'analyse des situations interactionnelles a notamment permis d'identifier les procédures de cadrage et les techniques dramaturgiques mises en oeuvre par les interactants, ainsi que les répertoires argumentatifs mobilisés par ces acteurs pendant l « 'épreuve » de la concertation. Les confrontations des points de vue et les justifications des prises de positions des acteurs peuvent faire évoluer la configuration initiale des jeux d'acteurs même si, pour certains, ces changements ne restent parfois qu'éphémères. Les organisations s'engagent dans la concertation en fonction de la revendication d'une légitimité qui est à comprendre comme une forme militantisme institutionnel s'articulant autour de la valorisation d'une expertise militante, environnementale, institutionnelle, ou encore de leur statut de partenaire institutionnel. In France, decentralization and territorialization of public action have made outdoor sports become an object of public policies justifiable by giving birth to new tools of public management dedicated to the public consultation, the dialogue, and the planning of the uses of the landscapes. Indeed, born of article 52 of the Law on sport modified in 2000, the Departmental committee for Spaces, Sites and Routes relative to natural sports ( CDESI) and the Departmental Plan of Spaces Sites and Routes relative to natural sports ( PDESI) are governance tools dedicated to the public management of outdoor sports for counties. A challenge of this work is to understand the changes of public policy by focusing on the study of mechanisms for consultation on outdoor sports. A second item of this work is to highlight the effects of cooperation by focusing on the analysis of interactions and actor's commitments during the "public thing in the making" (Cefaï, 2002). Actors commit themselves not only in the dialogue included as a social activity made by interactions, but they also take part to the dialogue included as a process of public action. Also, another issue of this work is to understand the effects of consultation by a processual approach of individual commitments (Fillieule, 2004) of actors and organizations. Using the conceptual tools of symbolic interactionism, pragmatic sociology, and structuralist sociology, the analysis of interactional situations has highlighted the framing work and procedures implemented by the interactants, as well as the dramaturgical techniques and argumentative directories which, they mobilize during the "test" of the consultation. Confrontation of viewpoints and justifications of interactants' positions can evolve from their initial configuration sets, even if for some of them these changes are sometimes ephemeral. Organizations involve themselves according to demands of legitimacy which, are to understand as a shape institutional militancy articulating around the valuation of a militant, environmental, institutional expertise, or still around their status of institutional partner.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Introduction (extrait)] Si l'on connaît généralement les revues systématiques dans le domaine médical ou des soins, l'évaluation de l'efficacité d'une intervention technique ou structurelle en dehors de ces domaines est moins connue. Le but est cependant similaire : quelles preuves a-t-on qu'une intervention soit efficace pour améliorer la santé de la population ou d'une personne ? L'article ci-dessous présente une revue systématique en prévention et santé publique

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En Suisse, l'offre en matière de jeu est très importante. Que ce soit pour les loteries ou les casinos, les revenus bruts des jeux (RBJ) ont augmenté considérablement au cours de ces dix dernières années. Une offre de prévention et de traitement s'est développée en Suisse romande et le nombre de joueurs qui consultent ne cesse d'augmenter. Toutefois, il n'en reste pas moins qu'il s'agit là d'une petite proportion des joueurs problématiques qui font appel aux services d'aide. Le Programme intercantonal de lutte contre la dépendance au jeu (PILDJ) vise en premier lieu à sensibiliser la population au problème du jeu excessif. Il prévoit pour cela, notamment, de faciliter l'accès à l'information et au traitement. Par ailleurs, il a aussi pour objectif de sensibiliser les professionnels, afin d'améliorer la détection et la prise en charge des joueurs pathologiques. Le PILDJ entend finalement centraliser les informations relatives aux actions menées dans les cantons afin d'améliorer l'échange d'expériences. La coordination de ce Programme a été confiée au Groupement romand d'études des addictions (GREA). Le PILDJ comprend la mise sur pied de 4 modules parmi lesquels figure l'Etude romande sur le jeu. Ce rapport présente les résultats des volets couverts par l'Etude romande sur le jeu. [résumé, p. 5]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour les sociologues, l'explication de l'action ne peut reposer sur la nature première de l'esprit (les mécanismes universels de détection et de traitement de l'information dont les sciences cognitives prétendent rendre compte) mais sur sa nature seconde (les raisons d'agir plus ou moins collectives qui le meublent). Même les paradigmes sociologiques les plus opposés s'accordent pour traiter le social et le culturel comme le résultat d'un patient travail de dénaturalisation qui creuse un fossé incompressible entre l'ordre réducteur des causes naturelles et l'ordre respectable, de facture mentale ou sociale, des raisons, entre les instincts de base de l'organisme et la logique de haut-niveau des significations partagées et des normes culturelles. Or, l'objectif du naturalisme est précisément le dépassement de la rupture interne entre l'humain et l'animal, entre l'histoire culturelle et l'histoire biologique. Il vise à harmoniser, dans le sens de "rendre compatible", les hypothèses et les résultats des sciences sociales avec ceux des sciences naturelles, entreprise qui incite la sociologie à expliciter et à réviser les modèles cognitifs et anthropologiques auxquels elle fait implicitement appel. Un des apports potentiels des sciences cognitives et, plus généralement, du naturalisme est donc d'améliorer, de remplacer ou de falsifier, au sens poppérien du terme, les modèles cognitifs et les conceptions anthropologiques sur lesquels se basent les sciences de la société.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The capacity to interact socially and share information underlies the success of many animal species, humans included. Researchers of many fields have emphasized the evo¬lutionary significance of how patterns of connections between individuals, or the social networks, and learning abilities affect the information obtained by animal societies. To date, studies have focused on the dynamics either of social networks, or of the spread of information. The present work aims to study them together. We make use of mathematical and computational models to study the dynamics of networks, where social learning and information sharing affect the structure of the population the individuals belong to. The number and strength of the relationships between individuals, in turn, impact the accessibility and the diffusion of the shared information. Moreover, we inves¬tigate how different strategies in the evaluation and choice of interacting partners impact the processes of knowledge acquisition and social structure rearrangement. First, we look at how different evaluations of social interactions affect the availability of the information and the network topology. We compare a first case, where individuals evaluate social exchanges by the amount of information that can be shared by the partner, with a second case, where they evaluate interactions by considering their partners' social status. We show that, even if both strategies take into account the knowledge endowments of the partners, they have very different effects on the system. In particular, we find that the first case generally enables individuals to accumulate higher amounts of information, thanks to the more efficient patterns of social connections they are able to build. Then, we study the effects that homophily, or the tendency to interact with similar partners, has on knowledge accumulation and social structure. We compare the case where individuals who know the same information are more likely to learn socially from each other, to the opposite case, where individuals who know different information are instead more likely to learn socially from each other. We find that it is not trivial to claim which strategy is better than the other. Depending on the possibility of forgetting information, the way new social partners can be chosen, and the population size, we delineate the conditions for which each strategy allows accumulating more information, or in a faster way For these conditions, we also discuss the topological characteristics of the resulting social structure, relating them to the information dynamics outcome. In conclusion, this work paves the road for modeling the joint dynamics of the spread of information among individuals and their social interactions. It also provides a formal framework to study jointly the effects of different strategies in the choice of partners on social structure, and how they favor the accumulation of knowledge in the population. - La capacité d'interagir socialement et de partager des informations est à la base de la réussite de nombreuses espèces animales, y compris les humains. Les chercheurs de nombreux domaines ont souligné l'importance évolutive de la façon dont les modes de connexions entre individus, ou réseaux sociaux et les capacités d'apprentissage affectent les informations obtenues par les sociétés animales. À ce jour, les études se sont concentrées sur la dynamique soit des réseaux sociaux, soit de la diffusion de l'information. Le présent travail a pour but de les étudier ensemble. Nous utilisons des modèles mathématiques et informatiques pour étudier la dynamique des réseaux, où l'apprentissage social et le partage d'information affectent la structure de la population à laquelle les individus appartiennent. Le nombre et la solidité des relations entre les individus ont à leurs tours un impact sur l'accessibilité et la diffusion de l'informa¬tion partagée. Par ailleurs, nous étudions comment les différentes stratégies d'évaluation et de choix des partenaires d'interaction ont une incidence sur les processus d'acquisition des connaissances ainsi que le réarrangement de la structure sociale. Tout d'abord, nous examinons comment des évaluations différentes des interactions sociales influent sur la disponibilité de l'information ainsi que sur la topologie du réseau. Nous comparons un premier cas, où les individus évaluent les échanges sociaux par la quantité d'information qui peut être partagée par le partenaire, avec un second cas, où ils évaluent les interactions en tenant compte du statut social de leurs partenaires. Nous montrons que, même si les deux stratégies prennent en compte le montant de connaissances des partenaires, elles ont des effets très différents sur le système. En particulier, nous constatons que le premier cas permet généralement aux individus d'accumuler de plus grandes quantités d'information, grâce à des modèles de connexions sociales plus efficaces qu'ils sont capables de construire. Ensuite, nous étudions les effets que l'homophilie, ou la tendance à interagir avec des partenaires similaires, a sur l'accumulation des connaissances et la structure sociale. Nous comparons le cas où des personnes qui connaissent les mêmes informations sont plus sus¬ceptibles d'apprendre socialement l'une de l'autre, au cas où les individus qui connaissent des informations différentes sont au contraire plus susceptibles d'apprendre socialement l'un de l'autre. Nous constatons qu'il n'est pas trivial de déterminer quelle stratégie est meilleure que l'autre. En fonction de la possibilité d'oublier l'information, la façon dont les nouveaux partenaires sociaux peuvent être choisis, et la taille de la population, nous déterminons les conditions pour lesquelles chaque stratégie permet d'accumuler plus d'in¬formations, ou d'une manière plus rapide. Pour ces conditions, nous discutons également les caractéristiques topologiques de la structure sociale qui en résulte, les reliant au résultat de la dynamique de l'information. En conclusion, ce travail ouvre la route pour la modélisation de la dynamique conjointe de la diffusion de l'information entre les individus et leurs interactions sociales. Il fournit également un cadre formel pour étudier conjointement les effets de différentes stratégies de choix des partenaires sur la structure sociale et comment elles favorisent l'accumulation de connaissances dans la population.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes d'assistance ventriculaire sont apparus durant la dernière décade comme une approche thérapeutique efficace du traitement de l'insuffisance cardiaque terminale, en particulier dans le contexte de manque de donneurs d'organes. Néanmoins, et ceci malgré les progrès techniques majeurs, les taux de complications restent élevés et sont en partie liés à la configuration géométrique, en particulier le site d'implantation de la cannule de sortie à l'aorte thoracique. Bien que l'anastomose à l'aorte descendante permette une chirurgie moins invasive, les bénéfices de cette technique sont toujours controversés, comparée à la méthode standard de l'aorte ascendante, en raison du risque thrombo-embolique possiblement augmenté et des modifications hémodynamiques induites au niveau de l'arc aortique. Dans ce travail, nous comparons in silico en terme de débit et pression les deux possibilités anastomotiques. Nous développons un réseau de modèles mathématiques unidimensionnels, et l'appliquons à diverses situations cliniques, pour différents stades d'insuffisance cardiaque et de vitesses de rotation de la machine. Les données initiales sont obtenues grâce à un modèle OD (c'est-à-dire qui dépend uniquement du temps mais pas de l'espace) du système cardiovasculaire comprenant une assistance circulatoire, validé avec des données cliniques. Les simulations réalisées montrent que les deux méthodes sont similaires, en terme de débit et courbes de pression, ceci pour tous les cas cliniques étudiés. Ces résultats numériques soutiennent la possibilité d'utiliser la technique d'anastomose à l'aorte thoracique descendante, permettant une chirurgie moins invasive. Sur un plan plus fondamental, le système cardiovasculaire peut être simulé par le biais de multiples modèles de niveau de complexité différents, au prix d'un coût computationnel toujours plus élevé. Nous évaluons les avantages de modèles géométriques à plusieurs échelles (uni- et tridimensionnelle) avec données provenant de patients, comparés à des modèles simplifiés. Les résultats montrent que ces modèles de dimensions hétérogènes apportent un bénéfice important en terme de ressources de calcul, tout en conservant une précision acceptable. En conclusion, ces résultats encourageant montrent la relevance des études numériques dans le domaine médical, tant sur le plan fondamental et la compréhension des mécanismes physiopathologiques, que sur le plan applicatif et le développement de nouvelles thérapeutiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cooperation is ubiquitous in nature: genes cooperate in genomes, cells in muti- cellular organims, and individuals in societies. In humans, division of labor and trade are key elements of most known societies, where social life is regulated by- moral systems specifying rights and duties often enforced by third party punish¬ment. Over the last decades, several primary mechanisms, such as kin selection, direct and indirect reciprocity, have been advanced to explain the evolution of cooperation from a naturalistic approach. In this thesis, I focus on the study of three secondary mechanisms which, although insufficient to allow for the evo¬lution of cooperation, have been hypothesized to further promote it when they are linked to proper primary mechanisms: conformity (the tendency to imitate common behaviors), upstream reciprocity (the tendency to help somebody once help has been received from somebody else) and social diversity (heterogeneous social contexts). I make use of mathematical and computational models in the formal framework of evolutionary game theory in order to investigate the theoret¬ical conditions under which conformity, upstream reciprocity and social diversity are able to raise the levels of cooperation attained in evolving populations. - La coopération est ubiquitaire dans la nature: les gènes coopèrent dans les génomes, les cellules dans les organismes muticellulaires, et les organismes dans les sociétés. Chez les humains, la division du travail et le commerce sont des éléments centraux de la plupart des sociétés connues, où la vie sociale est régie par des systèmes moraux établissant des droits et des devoirs, souvent renforcés par la punition. Au cours des dernières décennies, plusieurs mécanismes pri¬maires, tels que la sélection de parentèle et les réciprocités directe et indirecte, ont été avancés pour expliquer l'évolution de la coopération d'un point de vue nat¬uraliste. Dans cette thèse, nous nous concentrons sur l'étude de trois mécanismes secondaires qui, bien qu'insuffisants pour permettre l'évolution de la coopération, sont capables de la promouvoir davantage s'ils sont liés aux mécanismes primaires appropriés: la conformité (tendance à imiter des comportements en commun), la 'réciprocité en amont' (tendance à aider quelqu'un après avoir reçu l'aide de quelqu'un d'autre) et la diversité sociale (contextes sociaux hétérogènes). Nous faisons usage de modèles mathématiques et informatiques dans le cadre formel de la théorie des jeux évolutionnaires afin d'examiner les conditions théoriques dans lesquelles la conformité, la 'réciprocité en amont' et la diversité sociale sont capables d'élever le niveau de coopération des populations en évolution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'étude actuelle vise à décrire la situation face au VIH/sida et aux autres IST des prostituées (femmes, transgenres) exerçant dans la rue, dans les salons, dans les cabarets et autres bars en Suisse. [...] L'étude a pour objectifs d'apporter des éléments de réponse aux questions suivantes : Importance numérique, évolution et modalités d'exercice de la prostitution féminine. - "Profil" (nationalité, etc.) des prostituées selon le lieu d'exercice. - Profil des prostituées sous l'angle de la loi et autres dispositions juridiques. - Degré d'autonomie des prostituées. - Violences exercées sur les prostituées. - Comportement des prostituées face à la prévention du VIH et des autres IST. - Accès à la prévention et aux soins de santé chez les personnes qui se prostituent. - Perspectives / problèmes émergents Cette étude a fait l'objet de deux approches différentes: une revue de la littérature en Suisse et en Europe publiée depuis 2002 et des panels d'experts organisés auprès des professionnels ayant un contact régulier avec le milieu de la prostitution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.