256 resultados para Outil d’évaluation
Resumo:
Fibrose pulmonaire idiopathique La fibrose pulmonaire idiopathique (FPI, Idiopathic Pulmonary Fibrosis) est une maladie diffuse du parenchyme pulmonaire de cause inconnue caractérisée par une aggravation de la dyspnée, une réduction du volume pulmonaire et une altération des échanges gazeux. Elle est la plus fréquente de pneumopathies interstitielles idiopathiques (IIPs, Idiopathic Interstitial Pneumonias), avec une incidence annuelle estimée entre 4,6 et 16,3 pour 100'000 personnes et une prévalence de 13 à 20 cas pour 100 000 personnes. Son évolution est progressive, irréversible et de mauvais pronostic avec une survie médiane de 2 à 3.5 ans et une survie à 5 ans de moins de 20%.
Resumo:
RESUME : L'athérosclérose, pathologie inflammatoire artérielle chronique, est à l'origine de la plupart des maladies cardiovasculaires qui constituent l'une des premières causes de morbidité et mortalité en France. Les études observationnelles et expérimentales montrent que l'exercice physique prévient la mortalité cardiovasculaire. Cependant, les mécanismes précisant les bénéfices cliniques de l'exercice sur l'athérosclérose sont encore largement inconnus. Le but général de ce travail a donc été d'explorer, en utilisant un modèle expérimental d'athérosclérose, la souris hypercholestérolémique génétiquement dépourvue en apolipoprotéine E (apoE-/-), les mécanismes athéroprotecteurs de l'exercice. La dysfonction endothéliale, généralement associée aux facteurs de risque cardiovasculaire, serait l'une des étapes précoces majeures de l'athérogenèse. Elle est caractérisée par une diminution de la biodisponibilité en monoxyde d'azote (NO) avec la perte de ses propriétés vasculo-protectrices, ce qui favorise un climat pro-athérogène (stress oxydatif, adhésion et infiltration des cellules inflammatoires dans la paroi artérielle...) conduisant à la formation de la plaque athéromateuse. L'objectif de notre premier travail a donc été d'explorer les effets de l'exercice d'une part, sur le développement des plaques athéromateuses et d'autre part, sur la fonction endothéliale de la souris apoE-/-. Nos résultats montrent que l'exercice réduit significativement l'extension de l'athérosclérose et prévient la dysfonction endothéliale. L'explication pharmacologique montre que l'exercice stimule la fonction endothéliale via, notamment, une plus grande sensibilité des récepteurs endothéliaux muscariniques, ce qui active les événements signalétiques cellulaires récepteurs-dépendants à l'origine d'une bioactivité accrue de NO. Les complications cliniques graves de l'athérosclérose sont induites par la rupture de la plaque instable provoquant la formation d'un thrombus occlusif et l'ischémie du territoire tissulaire en aval. L'objectif de notre deuxième travail a été d'examiner l'effet de l'exercice sur la qualité/stabilité de la plaque. Nos résultats indiquent que l'exercice de longue durée stabilise la plaque en augmentant le nombre de cellules musculaires lisses et en diminuant le nombre de macrophages intra-plaques. Nos résultats montrent aussi que la phosphorylation de la eNOS (NO Synthase endothéliale) Akt-dépendante n'est pas le mécanisme moléculaire majeur à l'origine de ce bénéfice. Enfin, dans notre troisième travail, nous avons investigué l'effet de l'exercice sur le développement de la plaque vulnérable. Nos résultats montrent, chez un modèle murin de plaque instable (modèle d'hypertension rénovasculaire à rénine et angiotensine II élevés) que l'exercice prévient l'apparition de la plaque vulnérable indépendamment d'un effet hémodynamique. Ce bénéfice serait associé à une diminution de l'expression vasculaire des récepteurs AT1 de l'Angiotensine II. Nos résultats justifient l'importance de l'exercice comme outil préventif des maladies cardiovasculaires. ABSTRACT : Atherosclerosis, a chronic inflammatory disease, is one of the main causes of morbidity and mortality in France. Observational and experimental data indicate that regular physical exercise has a positive impact on cardiovascular mortality. However, the mechanisms by which exercise exerts clinical benefits on atherosclerosis are still unknown. The general aim of this work was to elucidate the anti-atherosclerotic effects of exercise, using a mouse model of atherosclerosis: the apolipoprotein E-deficient mice (apoE-/- mice). Endothelial dysfunction, generally associated with cardiovascular risk factors, has been recognized to be a major and early step in atherogenesis. Endothelial dysfunction is characterized by Nitric Oxide (NO) biodisponibility reduction with loss of NO-mediated vasculoprotective actions. This leads to vascular effects such as increased oxidative stress and increased adhesion of inflammatory cells into arterial wall thus playing a role in atherosclerotic plaque development. Therefore, one of the objective of our study was to explore the effects of exercise on atherosclerotic plaque extension and on endothelial function in apoE-/- mice. Results show that exercise significantly reduces plaque progression and prevents endothelial dysfunction. Pharmacological explanation indicates that exercise stimulates endothelial function by increasing muscarinic receptors sensitivity which in turn activates intracellular signalling receptor-dependent events leading to increased NO bioactivity. The clinical manifestations of atherosclerosis are the consequences of unstable plaque rupture with thrombus formation leading to tissue ischemia. The second aim of our work was to determine the effect of exercise on plaque stability. We demonstrate that long-term exercise stabilizes atherosclerotic plaques as shown by decreased macrophage and increased Smooth Muscle Cells plaque content. Our results also suggest that the Akt-dependent eNOS phosphorylation pathway is not the primary molecular mechanism mediating these beneficial effects. Finally, we assessed a putative beneficial effect of exercise on vulnerable plaque development. In a mouse model of Angiotensine II (Ang II)-mediated vulnerable atherosclerotic plaques, we provide fist evidence that exercise prevents atherosclerosis progression and plaque vulnerability. The beneficial effect of swimming was associated with decreased aortic Ang II AT1 receptor expression independently from any hemodynamic change. These findings suggest clinical benefit of exercise in terms of cardiovascular event protection.
Resumo:
Messages à retenir: L'identification des anomalies pleurales et parenchymateuses liées à une exposition à l'amiante est essentielle pour la reconnaissance de maladie professionnelle, avec de lourdes conséquences économiques. Le scanner thoracique est l'outil le plus fiable de ce dépistage. La détection d'anomalies dans les régions basales et sous-pleurales doit conduire à la réalisation de coupes complémentaires en procubitus sur ces régions. Le diagnostic TDM des anomalies pleurales et parenchymateuses liées à l'amiante repose sur des critères diagnostiques et un vocabulaire précis. De nombreuses images pièges peuvent mimer des plaques ou une asbestose. Une bonne connaissance de l'anatomie de l'interface pleuro-parenchymateuse et des principaux diagnostics différentiels permet souvent de redresser le diagnostic. Résumé: Le scanner multicoupe est l'outil de référence pour le dépistage des pathologies pleurales et parenchymateuses liées à l'exposition à l'amiante. Le diagnostic de plaques pleurales repose sur une surélévation quadrangulaire et nette de l'interface pleuro-parenchymateuse, dans une ou des localisation(s) évocatrice(s). Les pièges responsables de fausses images de plaques sont nombreux : structures anatomiques et variantes de la normale, opacités postéro-basales liées à des troubles ventilatoires, sarcoïdose... Les plaques doivent être différenciées des autres anomalies pleurales bénignes pouvant être rencontrées dans ce contexte, mais non spécifiques d'une exposition à l'amiante : épaississements pleuraux diffus, fibrose de la plèvre viscérale, images en pieds de corneille. La reconnaissance d'une asbestose nécessite de s'affranchir de troubles ventilatoires liés à la déclivité ou à des contraintes mécaniques focales, chroniques, telles que des ostéophytes para-vertébraux. Les coupes en procubitus permettent d'affirmer l'existence d'une pathologie interstitielle débutante dans les régions sous-pleurales et basales. Des anomalies interstitielles isolées ne peuvent être attribuées à une asbestose, de même que des anomalies interstitielles non spécifiques, associées ou non à une pathologie diffuse fibrosante.
Resumo:
L'inventaire des géotopes d'importance nationale, aujourd'hui proche de son état final, est le fruit d'un long travail de sélection, de documentation ainsi que de définition et de numérisation des périmètres des sites initié dans les années 1990 par le groupe de travail pour la protection des géotopes en Suisse (Strasser et al. 1995, Berger et al. 2008). Il représente un outil au service de la diffusion et à la promotion du géopatrimoine suisse, auprès de la population en général et des professionnels des géosciences en particulier, dans un but de valorisation patrimoniale et de protection et par une sensibilisation à la valeur particulière et à la vulnérabilité des géotopes.¦C'est dans cet objectif qu'a été développée une interface cartographique rendant accessible sur Internet le contenu de cet inventaire. L'outil de web mapping utilisé - GoogleMaps API - permet en effet d'enrichir une interface de navigation intuitive de diverses fonctions additionnelles offertes par la cartographie sur internet (Kraak 2004, Plewe 2007). La carte n'est donc pas seulement une représentation de la réalité permettant la localisation de différents objets, mais également un outil de recherche thématique et spatiale ainsi qu'un index reliant chaque objet cartographié à diverses informations.¦Porte d'accès aux données des site à une échelle individuelle ou globale, mais aussi outil d'exploration, cette interface propose plusieurs niveaux d'utilisation, correspondant aux diverses interactions possibles avec ces données : naviguer et découvrir les sites, réaliser des sélections multiples, comparer les géotopes à d'autres données, comme l'inventaire fédéral des paysages. L'utilisateur peut ainsi produire à chaque fois la carte qui répond à ses besoins et à ses questions. En donnant à tous accès au contexte et aux particularités de chaque site par delà la globalité abstraite de l'inventaire, cette application se veut avant tout un outil au service de la médiation du géopatrimoine.
Resumo:
Des années 1780, quand surgit la question de l'émancipation des juifs, à la Première Guerre mondiale, qui dément l'optimisme de la perfectibilité du genre humain cultivé par la Bildung, le « long » XIXe siècle est la scène sur laquelle se déploient les efforts d'intégration des juifs dans la société et la culture allemandes, où la Bildung, intimement liée à l'esprit du protestantisme allemand qui l'a profondément marquée de son empreinte, tient lieu de médiation. Fil conducteur de ma recherche, la Bildung me permet de montrer en quoi son idéal est devenu un élément constitutif de l'identité des juifs allemands, en même temps qu'il cesse, sous les effets de la nationalisation d'une culture allemande devenue un outil au service d'un peuple particulier, d'être le projet, certes d'une communauté donnée, mais porteur d'universalisme. De fait, tout en adhérant à sa définition originale, les juifs ont su réinterpréter l'idée de Bildung en désamorçant l'alliance entre culture, germanité et nationalisme, afin de construire une nouvelle identité judéo-allemande qui réponde aux enjeux et aux exigences de la modernité ainsi qu'aux évolutions du temps, tout en visant à la reconnaissance des valeurs et du statut du judaïsme. Dans la mesure où cet idéal de la Bildung, sous les coups du nationalisme allemand, a perdu sa portée universelle pour, dans un processus de germanisation, devenir un instrument au service du projet nationaliste, les juifs vont progressivement se voir exclus de la nation allemande, quand bien même ou précisément parce qu'ils se sont identifiés à tel point au projet initial de la Bildung qu'ils en sont devenus les garants. From the 1780s, when the question of the emancipation of the Jews emerged, until World War I-a disappointment for those who were optimistic about cultivating a perfected humanity through Bildung (education)-the "long" nineteenth century is the stage on which the efforts to integrate the Jews into German society and culture took place. In this context, Bildung, which was decidedly bound to and profoundly marked by the German Protestant spirit, served as mediation. The underlying theme of Bildung in my research enables me to show how its ideal became the constitutive element of German Jewish identity. Concurrently, under the effects of the nationalization of German culture that became a tool in the service of a specific folk, the ideal of Bildung ceased to be a project that conveyed universal meaning. In fact, although the Jewish people agreed with its original definition, they succeeded in reinterpreting the idea of Bildung by neutralizing the alliance between culture, being German, and nationalism in order to elaborate a new German-Jewish identity in reply to the challenges and requirements of modernity and the evolution of society while still recognizing the values and status of Judaism. Inasmuch as the ideal of Bildung lost its universal significance for serving the nationalist project under the influence of German nationalism, the Jews were gradually excluded from the German folk, which took place despite, or precisely because, they identified to such an extent with the original aims of Bildung that they became the guarantors for it. Das ,,lange" 19. Jahrhundert bildet die Kulisse der Integrationsbemühungen der Juden in die deutsche Gesellschaft und Kultur, von den 1780er Jahren, als die Frage nach der Judenemanzipation zutage kommt, bis zum Ersten Weltkrieg, der den Optimismus der menschlichen Verbesserungsfahigkeit durch die Bildung widerlegt. Die mit dem Geist des deutschen Protestantismus eng verbundene Bildung dient hier als Mediation. Der rote Faden der Bildung ermöglicht mir zu zeigen, inwiefern ihr Ideal wesentlich für die jüdische Identität geworden ist. Zur gleichen Zeit hat das Bildungsideal, unter der Wirkung der Nationalisierung der deutschen Kultur, die zum Werkzeug eines eigenartigen Volkes gemacht wurde, sein universales Wesen verloren. In der Tat, obwohl die Juden dem ursprünglichen Bildungsideal zustimmten, haben sie die Bildung neu interpretiert, indem sie die Verbindung zwischen Kultur, Germanentum und Nationalismus entschärft und eine neue deutsch-jüdische Identität gebildet haben, die den Herausforderungen und den Ansprüchen der Moderne sowie dem Gesellschaftswandel entsprach und gleichzeitig darauf abzielte, die Werte und den Status des Judentums zu anerkennen. Insoweit, als das Bildungsideal seine universale Geltung unter dem Einfluss des deutschen Nationalismus verloren hat, um den nationalistischen Absichten zu dienen, wurden die Juden nach und nach vom deutschen Volk ausgeschlossen, selbst wenn oder gerade weil sie sich dermassen mit dem ursprünglichen Zweck der Bildung identifiziert haben, dass sie ihre Garanten geworden sind.
Resumo:
Les aléas du développement de la temporalité chez l'enfant passent souvent inaperçus, masqués par divers troubles psychopathologiques. Le temps constitue toutefois une dimension essentielle de l'adaptation scolaire, familiale ou sociale. En première partie, cet article retrace la psychogenèse de la temporalité et plus particulièrement le développement du temps notionnel et le développement des notions cinématiques. La seconde partie est consacrée à la présentation du questionnaire temporel pour l'enfant (QTE), étalonné sur un échantillon de 153 enfants de 6 à 13 ans. Cet instrument d'évaluation du temps notionnel offre au clinicien un outil de screening permettant d'identifier les difficultés temporelles chez les enfants.
Resumo:
Les interactions épithélio-mésenchymateuses jouent un rôle important dans le contrôle du développement normal de la peau, son homéostasie et sa tumorigenèse. Les fibroblastes dermiques (DFs) représentent la catégorie cellulaire la plus abondante dans le stroma et leur rôle est de plus en plus considéré. En ce qui concerne particulièrement la tumorigenèse, des facteurs diffusibles produits par les fibroblastes entourant les tumeurs épithéliales, appelés 'fibroblastes associés au cancer (CAF)', interagissent au niveau de l'inflammation impliquée directement ou indirectement dans la signalisation paracrine, entre le stroma et les cellules épiéliales cancéreuses. Le risque de cancer de la peau augmente de façon exponentielle avec l'âge. Comme un lien probable entre les deux, la sénescence des fibroblastes résulte de la production du sécrétome favorisant la sénescence (SMS), un groupe de facteurs diffusibles induisant une stimulation paracrine de la croissance, l'inflammation et le remodelage de la matrice. De façon fort intéressante, l'induction de ces gènes est aussi une caractéristique des CAFs. Cependant, le lien entre les deux événements cellulaires sénescence et activation des CAFs reste en grande partie inexploré. L'ATF3 (Activating Transcription Factor 3) est un facteur de transcription induit en réponse au stress, dont les fonctions sont hautement spécifiques du type cellulaire. Bien qu'il ait été découvert dans notre laboratoire en tant que promoteur de tumeurs dans les kératinocytes, ses fonctions biologique et biochimique dans le derme n'ont pas encore été étudiées. Récemment, nous avons constaté que, chez la souris, l'abrogation de la voie de signalisation de Notch/CSL dans les DFs, induisait la formation de tumeurs kératinocytaires multifocales. Ces dernières proviennent de la cancérisation en domaine, un phénomène associé à une atrophie du stroma, des altérations de la matrice et de l'inflammation. D'autres études ont montré que CSL agissait comme un régulateur négatif de gènes impliqués dans sénescence des DFs et dans l'activation des CAFs. Ici, nous montrons que la suppression ou l'atténuation de l'expression de ATF3 dans les DFs induit la sénescence et l'expression des gènes liés aux CAFs, de façon similaire à celle déclenchée par la perte de CSL, tandis que la surexpression de ATF3 supprime ces changements. Nous émettons l'hypothèse que ATF3 joue un rôle suppresseur dans l'activation des CAFs et dans la progression des tumeurs kératinocytaires, en surmontant les conséquences de l'abrogation de la voie de signalisation Notch/CSL. En concordance avec cette hypothèse, nous avons constaté que la perte de ATF3 dans les DFs favorisait la tumorigénicité des kératinocytes via le contrôle négatif de cytokines, des enzymes de la matrice de remodelage et de protéines associées au cancer, peut-être par liaison directe des effecteurs de la voie Notch/CSL : IL6 et les gènes Hes. Enfin, dans les échantillons cliniques humains, le stroma sous-jacent aux lésions précancéreuses de kératoses actiniques montre une diminution significative de l'expression de ATF3 par rapport au stroma jouxtant la peau normale. La restauration de l'expression de ATF3 pourrait être utilisée comme un outil thérapeutique en recherche translationnelle pour prévenir ou réprimer le processus de cancérisation en domaine. - Epithelial-mesenchymal interactions play an important role in control of normal skin development, homeostasis and tumorigenesis. The role of dermal fibroblasts (DFs) as the most abundant cell type in stroma is increasingly appreciated. Especially during tumorigenesis, fibroblasts surrounding epithelial tumors, called Cancer Associated Fibroblasts (CAFs), produce diffusible factors (growth factors, inflammatory cytokines, chemokines and enzymes, and matrix metalloproteinases) that mediate inflammation either directly or indirectly through paracrine signaling between stroma and epithelial cancer cells. The risk of skin cancer increases exponentially with age. As a likely link between the two, senescence of fibroblasts results in production of the senescence-messaging-secretome (SMS), a panel of diffusible factors inducing paracrine growth stimulation, inflammation, and matrix remodeling. Interestingly, induction of these genes is also a characteristic of Cancer Associated Fibroblasts (CAFs). However, the link between the two cellular events, senescence and CAF activation is largely unexplored. ATF3 is a key stress response transcription factor with highly cell type specific functions, which has been discovered as a tumor promoter in keratinocytes in our lab. However, the biological and biochemical function of ATF3 in the dermal compartment of the skin has not been studied yet. Recently, we found that compromised Notch/CSL signaling in dermal fibroblasts (DFs) in mice is a primary cause of multifocal keratinocyte tumors called field cancerization associated with stromal atrophy, matrix alterations and inflammation. Further studies showed that CSL functions as a negative regulator of genes involved in DFs senescence and CAF activation. Here, we show that deletion or silencing of the ATF3 gene in DFs activates senescence and CAF-related gene expression similar to that triggered by loss of CSL, while increased ATF3 suppresses these changes. We hypothesize that ATF3 plays a suppressing role in CAF activation and keratinocyte tumor progression, overcoming the consequences of compromised Notch/CSL signaling. In support of this hypothesis, we found that loss of ATF3 in DFs promotes tumorigenic behavior of keratinocytes via negative control of cytokines, matrix-remodeling enzymes and cancer-associated proteins, possibly through direct binding to Notch/CSL targets, IL6 and Hes genes. On the other hand, in human clinical samples, stromal fields underlying premalignant actinic keratosis lesions showed significantly decreased ATF3 expression relative to stroma of flanking normal skin. Restoration of ATF3, which is lost in cancer development, may be used as a therapeutic tool for translational research to prevent or suppress the field cancerization process.
Resumo:
Résumé de thèseLe syndrome de PFAPA est une maladie fébrile récurrente décrite pour la première fois en 1987 par Marshall et col. Elle est caractérisée par une fièvre périodique, une stomatite aphteuse, une pharyngite et des adénopathies. Ce syndrome débute dans les premières années de vie et est connu pour disparaître spontanément en principe avant l'adolescence. Hormis un traitement de prednisone en début de crise, aucun traitement n'a pu montrer une efficacité thérapeutique ou curative.L'origine et l'étiologie de cette maladie sont encore inconnues à ce jour et le diagnostic reste un diagnostic d'exclusion qui repose sur des critères définis par différents groupes depuis 1987. Dans le cadre du Working Party periodic fever de la Société Européenne de Rhumatologie pédiatrique (PreS), un groupe a été établi et celui-ci a mis en place un registre de patients atteints de PFAPA afin d'analyser cette maladie et de mieux définir les critères diagnostic. Le Dr Michael Hofer a été nommé chairman de ce groupe et a introduit rapidement les patients romands dans cet outil de travail.L'introduction des patients romands dans la base de données ainsi créée, nous a suggéré une susceptibilité familiale qui nous a poussés à investiguer ce point de manière plus approfondie. Nous avons donc regroupé tous les patients lausannois et ceux de collègues bordelais ayant un diagnostic avéré de PFAPA. Nous avons ensuite interrogé, au cours d'un entretien téléphonique, les familles de ces enfants grâce à un questionnaire standardisé. Celui-ci a été testé et validé sur des patients sains d'une consultation de pédiatrie générale.Nous avons ensuite réunie toutes ces informations et séparés les patients en deux groupes AF+ (anamnèse familiale positive pour une fièvre récurrente) et AF- (anamnèse familiale négative pour une fièvre récurrente). Nous avons établi des comparaisons entre les 2 différents groupes en reprenant les caractéristiques de ces patients depuis le registre PFAPA dans lequel ils sont tous inclus. Les analyses ont été contrôlées et validées par le centre d'épidémiologie clinique grâce aux méthodes statistiques reconnues.Les résultats obtenus et qui sont détaillés dans l'article, permettent de suspecter une origine familiale et par là même, potentiellement génétique, à cette maladie d'étiologie inconnue. Jusqu'à présent aucune prépondérance familiale n'avait pu être mise en évidence dans les autres études sur le sujet. Pourtant cette maladie fait partie du groupe des fièvres récurrentes qui ont pour beaucoup déjà un diagnostic génétique.Notre étude ouvre donc des perspectives non seulement de recherche sur l'éventuelle cause génétique mais pourrait également permettre une meilleure compréhension de la maladie, de ses diverses présentations ainsi que par la suite de nouvelles possibilités thérapeutiques.
Resumo:
Abstract Long term contact with pathogens induces an adaptive immune response, which is mainly mediated by T and B cells. Antigen-induced activation of T and B cells is an important event, since it facilitates the transition of harmless, low proliferative lymphocytes into powerful and fast expanding cells, which can, if deregulated, be extremely harmful and dangerous for the human body. One of the most important events during lymphocyte activation is the induction of NF-xB activity, a transcription factor that controls not only cytokine secretion, but also lymphocyte proliferation and survival. Recent discoveries identified the CBM complex as the central regulator of NF-xB activity in lymphocytes. The CBM complex consists of the three proteins Carma1, Bcl10 and Malt1, in which Carma1 serves as recruitment platform of the complex and Bcl10 as an adaptor to recruit Malt1 to this platform. But exactly how Malt1 activates NF-x6 is still poorly understood. We discovered that Malt1 is a protease, which cleaves its interaction partner Bcl10 upon T and B cell stimulation. We mapped the Bcl10 cleavage site by single point mutations as well as by a proteomics approach, and used this knowledge to design a fluorogenic Malt1 reporter peptide. With this tool were we able to the first time demonstrate proteolytic activity of Malt1 in vitro, using recombinant Malt1, and in stimulated T cells. Based on similarities to a metacaspase, we designed a Malt1inhibitor, which allowed unto investigate the role of Malt1 activity in T cells. Malt1-inhibited T cells showed a clear defect in NF-xB activity, resulting in impaired IL-2 cytokine secretion levels. We also found a new unexpected role for Bcl10; the blockade of Bcl10 cleavage resulted in a strongly impaired capability of stimulated T cells to adhere to the extracellular matrix protein fibronectin. Because of the central position of the C8M complex, it is not surprising that different lymphomas show abnormal expressions of Carma1, Bcl10 and Malt1. We investigated the role of Malt1 proteolytic activity in the most aggressive subtype of diffuse large B cell lymphomas called ABC, which was described to depend on the expression of Carmal, and frequently carries oncogenic Carmal mutations. We found constitutive high Malt1 activity in all tested ABC cell lines visualized by detection of cleavage products of Malt1 substrates. With the use of the Malt1-inhibitor, we could demonstrate that Malt-inhibition in those cells had two effects. First, the tumor cell proliferation was decreased, most likely because of lower autocrine stimulation by cytokines. Second, we could sensitize the ABC cells towards cell death, which is most likely caused by reduced expression of prosurvival NF-xB target gens. Taken together, we identified Malt1 as a protease in T and B cells, demonstrated its importance for NF-xB signaling and its deregulation in a subtype of diffuse large B cell lymphoma. This could allow the development of a new generation of immunomodulatory and anti-cancer drugs. Résumé Un contact prolongé avec des pathogènes provoque une réponse immunitaire adaptative qui dépend principalement des cellules T et 8. L'activation des lymphocytes T et B, suite à la reconnaissance d'un antigène, est un événement important puisqu'il facilite la transition pour ces cellules d'un état de prolifération limitée et inoffensive à une prolifération soutenue et rapide. Lorsque ce mécanisme est déréglé ìl peut devenir extrêmement nuisible et dangereux pour le corps humain. Un des événement les plus importants lors de l'activation des lymphocytes est l'induction du facteur de transcription NFxB, qui organise la sécrétion de cytokines ainsi que la prolifération et la survie des lymphocytes. Le complexe CBM, composé des trois protéines Carmai, Bc110 et Malt1, a été récemment identifié comme un régulateur central de l'activité de NF-x8 dans les lymphocytes. Carma1 sert de plateforme de recrutement pour ce complexe alors que Bc110 permet d'amener Malt1 dans cette plateforme. Cependant, le rôle exact de Malt1 dans l'activation de NF-tcB reste encore mal compris. Nous avons découvert que Malt1 est une protéase qui clive son partenaire d'interaction BcI10 après stimulation des cellules T et B. Nous avons identifié le site de clivage de BcI10 par une série de mutations ponctuelles ainsi que par une approche protéomique, ce qui nous a permis de fabriquer un peptide reporteur fluorogénique pour mesurer l'activité de Malt1. Grâce à cet outil, nous avons démontré pour la première fois l'activité protéolytique de Malt1 in vitro à l'aide de protéines Malt1 recombinantes ainsi que dans des cellules T stimulées. La ressemblance de Malt1 avec une métacaspase nous a permis de synthétiser un inhibiteur de Malt1 et d'étudier ainsi le rôle de l'activité de Malt1 dans les cellules T. L'inhibition de Malt1 dans les cellules T a révélé un net défaut de l'activité de NF-x8, ayant pour effet une sécrétion réduite de la cytokine IL-2. Nous avons également découvert un rôle inattendu pour Bcl10: en effet, bloquer le clivage de Bcl10 diminue fortement la capacité d'adhésion des cellules T stimulées à la protéine fïbronectine, un composant de la matrice extracellulaire. En raison de la position centrale du complexe CBM, il n'est pas étonnant que le niveau d'expression de Carmai, Bcl10 et Malt1 soit anormal dans plusieurs types de lymphomes. Nous avons examiné le rôle de l'activité protéolytique de Malt1 dans le sous-type le plus agressif des lymphomes B diffus à grandes cellules, appelé sous-type ABC. Ce sous-type de lymphomes dépend de l'expression de Carmai et présente souvent des mutations oncogéniques de Carma1. Nous avons démontré que l'activité de Malt1 était constitutivement élevée dans toutes les lignées cellulaires de type ABC testées, en mettant en évidence la présence de produits de clivage de différents substrats de Malt1. Enfin, l'utilisation de l'inhibiteur de Malt1 nous a permis de démontrer que l'inhibition de Malt1 avait deux effets. Premièrement, une diminution de la prolifération des cellules tumorales, probablement dûe à leur stimulation autocrine par des cytokines fortement réduite. Deuxièmement, une sensibilisation des cellules de type ABC à ia mort cellulaire, vraisemblablement causée par l'expression diminuée de gènes de survie dépendants de NF-tcB. En résumé, nous avons identifié Malt1 comme une protéase dans les cellules T et B, nous avons mis en évidence son importance pour l'activation de NF-xB ainsi que les conséquences du dérèglement de l'activité de Malt1 dans un sous-type de lymphome B diffus à larges cellules. Notre étude ouvre ainsi la voie au développement d'une nouvelle génération de médicaments immunomodulateurs et anti-cancéreux.
Resumo:
Rapport de synthèse : Introduction : Internet est une source importante d'information sur la santé mentale. Le trouble bipolaire est communément associé à un handicap, des comorbidités, un faible taux d'introspection et une mauvaise compliance au traitement. Le fardeau de la maladie, de par les épisodes dépressifs et maniaques, peut conduire les personnes (dont le diagnostic de trouble bipolaire a été déjà posé ou non), ainsi que leur famille à rechercher des informations sur Internet. De ce fait, il est important que les sites Web traitant du sujet contiennent de l'information de haute qualité, basée sur les évidences scientifiques. Objectif.: évaluer la qualité des informations consultables sur Internat au sujet du trouble bipolaire et identifier des indicateurs de qualité. Méthode: deux mots-clés : « bipolar disorder » et « manic depressive illness » ont été introduits dans les moteurs de recherche les plus souvent utilisés sur Internet. Les sites Internet ont été évalués avec un formulaire standard conçu pour noter les sites sur la base de l'auteur (privé, université, entreprise,...), la présentation, l'interactivité, la lisibilité et la qualité du contenu. Le label de qualité « Health On the Net» (HON), et l'outil DISCERN ont été utilisés pour vérifier leur efficacité comme indicateurs de la qualité. Résultats: sur les 80 sites identifiés, 34 ont été inclus. Sur la base de la mesure des résultats, la qualité du contenu des sites s'est avérée être bonne. La qualité du contenu des sites Web qui traitent du trouble bipolaire est expliquée de manière significative par la lisibilité, la responsabilité et l'interactivité aussi bien que par un score global. Conclusions: dans l'ensemble, la qualité du contenu de l'étude des sites Web traitant du trouble bipolaire est de bonne qualité.
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.
Resumo:
SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.
Une nouvelle facette du travail indépendant : les chômeurs créateurs d'entreprise : une étude de cas
Resumo:
Dans le monde social, la figure du chômeur créateur d'entreprise se voit réduite à une approche essentiellement économique qui se polarise entre d'un côté, une valorisation de la création d'entreprises individuelles présentée par les milieux économiques comme un outil efficace de relance de la croissance et de résolution de la question du chômage , et de l'autre, une dénonciation des risques financiers et des dangers sociaux encourus par les individus qui se lancent dans une telle démarche. Mais au final, que sait-on réellement de ces nouveaux indépendants, de leur situation, du sens qu'ils donnent à leur activité, bref de ce qu'ils peuvent vivre ? Leur émergence concorde-t-elle avec un nouveau choix de vie, un désir de conciliation entre projet de vie et projet professionnel, ou sommes-nous face à un nouveau visage de la précarité en lien avec le contexte de la crise de l'emploi ? Répondent-ils au slogan largement véhiculé par le discours économique et politique selon lequel « il faut devenir l'entrepreneur de sa propre vie » , expression d'un individualisme exacerbé et d'une volonté non dissimulée de responsabilisation des agents sociaux ? Enfin, ce nouveau type d'autoemploi représente-t-il une étape de transition vers la réinsertion dans la société salariale, ou l'émergence d'une évolution significative des comportements de travail et des significations qui lui sont attribuées? C'est à toutes ces questions que notre recherche tente de répondre. La figure du chômeur créateur émerge dans un environnement dominé par une logique qui ne cesse de promouvoir la figure de l'homo oeconomicus comme modèle à suivre . Il faut être libre, autonome, responsable, calculateur et entreprenant. Si en apparence, ces créateurs d'entreprise peuvent être assimilés à la figure de l'entrepreneur schumpeterien, sur les critères de la réponse qu'ils apportent à l'impératif d'individualisation et de responsabilisation, ils opèrent en réalité une subtile réappropriation de cette exigence en l'adaptant aux critères de l'épanouissement personnel. Unanimement satisfaits tant sur le plan des « attributs intrinsèques » qu' « extrinsèques » du travail, la majorité des créateurs rencontrés ne ressentent pas leur situation d'emploi comme précaire. Ils refusent par ailleurs avec force d'envisager un retour au salariat, même lorsque la santé de leur entreprise menace leur survie économique et leur emploi. Cette position à l'égard de la condition salariale trouve sa justification dans une primauté accordée aux valeurs épanouissantes de l'activité exercée, au détriment d'une quête de stabilité financière et professionnelle. Les dimensions de la liberté, de l'autonomie et de la maîtrise des conditions de travail sont des composantes essentielles à la compréhension du désir de se maintenir dans l'activité indépendante. Dans la construction de ce modèle de travail et dans la relation entretenue à la nouvelle modalité d'emploi, ce n'est pas tant le passage par le chômage, mais bien plus l'expérience salariale antérieure, qui entre en jeu de manière significative. Les bouleversements dans la hiérarchie des valeurs de ces travailleurs sont ainsi peut-être le signe d'une évolution des comportements face à la condition salariale. L'attachement presque inconditionnel des répondants à leur nouveau statut, combiné à un refus catégorique d'envisager un retour au salariat, peut faire l'objet d'une interprétation en termes de détachement par rapport à la norme fordiste, laquelle perdure encore comme principale référence normative, au sein d'une majorité de travailleurs, malgré une application de plus en plus compromise. Par conséquent, l'attitude des chômeurs créateurs témoignerait d'une transition initiée entre un modèle d'emploi devenu obsolète et la construction d'une pluralité de modèles davantage élaborés sur la base de critères individuels.
Resumo:
RésuméCette thèse traite de l'utilisation des concepts de Symbiose Industrielle dans les pays en développement et étudie le potentiel de cette stratégie pour stimuler un développement régional durable dans les zones rurales d'Afrique de l'Ouest. En particulier, lorsqu'une Symbiose Industrielle est instaurée entre une usine et sa population alentour, des outils d'évaluation sont nécessaires pour garantir que le projet permette d'atteindre un réel développement durable. Les outils existants, développés dans les pays industrialisés, ne sont cependant pas complètement adaptés pour l'évaluation de projets dans les pays en développement. En effet, les outils sont porteurs d'hypothèses implicites propres au contexte socio-économique dans lequel ils ont été conçus.L'objectif de cette thèse est de développer un cadre méthodologique pour l'évaluation de la durabilité de projets de Symbiose Industrielle dans les pays en développement.Pour ce faire, je m'appuie sur une étude de cas de la mise en place d'une Symbiose Industrielle au nord du Nigéria, à laquelle j'ai participé en tant qu'observatrice dès 2007. AshakaCem, une usine productrice de ciment du groupe Lafarge, doit faire face à de nombreuses tensions avec la population rurale alentour. L'entreprise a donc décidé d'adopter une nouvelle méthode inspirée des concepts de Symbiose Industrielle. Le projet consiste à remplacer jusqu'à 10% du carburant fossile utilisé pour la cuisson de la matière crue (calcaire et additifs) par de la biomasse produite par les paysans locaux. Pour ne pas compromettre la fragile sécurité alimentaire régionale, des techniques de lutte contre l'érosion et de fertilisation naturelle des sols sont enseignées aux paysans, qui peuvent ainsi utiliser la culture de biomasse pour améliorer leurs cultures vivrières. A travers cette Symbiose Industrielle, l'entreprise poursuit des objectifs sociaux (poser les bases nécessaires à un développement régional), mais également environnementaux (réduire ses émissions de CO2 globales) et économiques (réduire ses coûts énergétiques). Elle s'ancre ainsi dans une perspective de développement durable qui est conditionnelle à la réalisation du projet.A travers l'observation de cette Symbiose et par la connaissance des outils existants je constate qu'une évaluation de la durabilité de projets dans les pays en développement nécessite l'utilisation de critères d'évaluation propres à chaque projet. En effet, dans ce contexte, l'emploi de critères génériques apporte une évaluation trop éloignée des besoins et de la réalité locale. C'est pourquoi, en m'inspirant des outils internationalement reconnus comme l'Analyse du Cycle de Vie ou la Global Reporting Initiative, je définis dans cette thèse un cadre méthodologique qui peut, lui, être identique pour tous les projets. Cette stratégie suit six étapes, qui se réalisent de manière itérative pour permettre une auto¬amélioration de la méthodologie d'évaluation et du projet lui-même. Au cours de ces étapes, les besoins et objectifs en termes sociaux, économiques et environnementaux des différents acteurs sont déterminés, puis regroupés, hiérarchisés et formulés sous forme de critères à évaluer. Des indicateurs quantitatifs ou qualitatifs sont ensuite définis pour chacun de ces critères. Une des spécificités de cette stratégie est de définir une échelle d'évaluation en cinq graduations, identique pour chaque indicateur, témoignant d'un objectif totalement atteint (++) ou pas du tout atteint (--).L'application de ce cadre méthodologique à la Symbiose nigériane a permis de déterminer quatre critères économiques, quatre critères socio-économiques et six critères environnementaux à évaluer. Pour les caractériser, 22 indicateurs ont été définis. L'évaluation de ces indicateurs a permis de montrer que le projet élaboré atteint les objectifs de durabilité fixés pour la majorité des critères. Quatre indicateurs ont un résultat neutre (0), et un cinquième montre qu'un critère n'est pas atteint (--). Ces résultats s'expliquent par le fait que le projet n'en est encore qu'à sa phase pilote et n'a donc pas encore atteint la taille et la diffusion optimales. Un suivi sur plusieurs années permettra de garantir que ces manques seront comblés.Le cadre méthodologique que j'ai développé dans cette thèse est un outil d'évaluation participatif qui pourra être utilisé dans un contexte plus large que celui des pays en développement. Son caractère générique en fait un très bon outil pour la définition de critères et indicateurs de suivi de projet en terme de développement durable.SummaryThis thesis examines the use of industrial symbiosis in developing countries and studies its potential to stimulate sustainable regional development in rural areas across Western Africa. In particular, when industrial symbiosis is instituted between a factory and the surrounding population, evaluation tools are required to ensure the project achieves truly sustainable development. Existing tools developed in industrialized countries are not entirely suited to assessing projects in developing countries. Indeed, the implicit hypotheses behind such tools reflect the socioeconomic context in which they were designed. The goal of this thesis is to develop a methodological framework for evaluating the sustainability of industrial symbiosis projects in developing countries.To accomplish this, I followed a case study about the implementation of industrial symbiosis in northern Nigeria by participating as an observer since 2007. AshakaCem, a cement works of Lafarge group, must confront many issues associated with violence committed by the local rural population. Thus, the company decided to adopt a new approach inspired by the concepts of industrial symbiosis.The project involves replacing up to 10% of the fossil fuel used to heat limestone with biomass produced by local farmers. To avoid jeopardizing the fragile security of regional food supplies, farmers are taught ways to combat erosion and naturally fertilize the soil. They can then use biomass cultivation to improve their subsistence crops. Through this industrial symbiosis, AshakaCem follows social objectives (to lay the necessary foundations for regional development), but also environmental ones (to reduce its overall CO2 emissions) and economical ones (to reduce its energy costs). The company is firmly rooted in a view of sustainable development that is conditional upon the project's execution.By observing this symbiosis and by being familiar with existing tools, I note that assessing the sustainability of projects in developing countries requires using evaluation criteria that are specific to each project. Indeed, using generic criteria results in an assessment that is too far removed from what is needed and from the local reality. Thus, by drawing inspiration from such internationally known tools as Life Cycle Analysis and the Global Reporting Initiative, I define a generic methodological framework for the participative establishment of an evaluation methodology specific to each project.The strategy follows six phases that are fulfilled iteratively so as to improve the evaluation methodology and the project itself as it moves forward. During these phases, the social, economic, and environmental needs and objectives of the stakeholders are identified, grouped, ranked, and expressed as criteria for evaluation. Quantitative or qualitative indicators are then defined for each of these criteria. One of the characteristics of this strategy is to define a five-point evaluation scale, the same for each indicator, to reflect a goal that was completely reached (++) or not reached at all (--).Applying the methodological framework to the Nigerian symbiosis yielded four economic criteria, four socioeconomic criteria, and six environmental criteria to assess. A total of 22 indicators were defined to characterize the criteria. Evaluating these indicators made it possible to show that the project meets the sustainability goals set for the majority of criteria. Four indicators had a neutral result (0); a fifth showed that one criterion had not been met (--). These results can be explained by the fact that the project is still only in its pilot phase and, therefore, still has not reached its optimum size and scope. Following up over several years will make it possible to ensure these gaps will be filled.The methodological framework presented in this thesis is a highly effective tool that can be used in a broader context than developing countries. Its generic nature makes it a very good tool for defining criteria and follow-up indicators for sustainable development.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.