963 resultados para Outil prédictif
Resumo:
Les aléas du développement de la temporalité chez l'enfant passent souvent inaperçus, masqués par divers troubles psychopathologiques. Le temps constitue toutefois une dimension essentielle de l'adaptation scolaire, familiale ou sociale. En première partie, cet article retrace la psychogenèse de la temporalité et plus particulièrement le développement du temps notionnel et le développement des notions cinématiques. La seconde partie est consacrée à la présentation du questionnaire temporel pour l'enfant (QTE), étalonné sur un échantillon de 153 enfants de 6 à 13 ans. Cet instrument d'évaluation du temps notionnel offre au clinicien un outil de screening permettant d'identifier les difficultés temporelles chez les enfants.
Resumo:
Les interactions épithélio-mésenchymateuses jouent un rôle important dans le contrôle du développement normal de la peau, son homéostasie et sa tumorigenèse. Les fibroblastes dermiques (DFs) représentent la catégorie cellulaire la plus abondante dans le stroma et leur rôle est de plus en plus considéré. En ce qui concerne particulièrement la tumorigenèse, des facteurs diffusibles produits par les fibroblastes entourant les tumeurs épithéliales, appelés 'fibroblastes associés au cancer (CAF)', interagissent au niveau de l'inflammation impliquée directement ou indirectement dans la signalisation paracrine, entre le stroma et les cellules épiéliales cancéreuses. Le risque de cancer de la peau augmente de façon exponentielle avec l'âge. Comme un lien probable entre les deux, la sénescence des fibroblastes résulte de la production du sécrétome favorisant la sénescence (SMS), un groupe de facteurs diffusibles induisant une stimulation paracrine de la croissance, l'inflammation et le remodelage de la matrice. De façon fort intéressante, l'induction de ces gènes est aussi une caractéristique des CAFs. Cependant, le lien entre les deux événements cellulaires sénescence et activation des CAFs reste en grande partie inexploré. L'ATF3 (Activating Transcription Factor 3) est un facteur de transcription induit en réponse au stress, dont les fonctions sont hautement spécifiques du type cellulaire. Bien qu'il ait été découvert dans notre laboratoire en tant que promoteur de tumeurs dans les kératinocytes, ses fonctions biologique et biochimique dans le derme n'ont pas encore été étudiées. Récemment, nous avons constaté que, chez la souris, l'abrogation de la voie de signalisation de Notch/CSL dans les DFs, induisait la formation de tumeurs kératinocytaires multifocales. Ces dernières proviennent de la cancérisation en domaine, un phénomène associé à une atrophie du stroma, des altérations de la matrice et de l'inflammation. D'autres études ont montré que CSL agissait comme un régulateur négatif de gènes impliqués dans sénescence des DFs et dans l'activation des CAFs. Ici, nous montrons que la suppression ou l'atténuation de l'expression de ATF3 dans les DFs induit la sénescence et l'expression des gènes liés aux CAFs, de façon similaire à celle déclenchée par la perte de CSL, tandis que la surexpression de ATF3 supprime ces changements. Nous émettons l'hypothèse que ATF3 joue un rôle suppresseur dans l'activation des CAFs et dans la progression des tumeurs kératinocytaires, en surmontant les conséquences de l'abrogation de la voie de signalisation Notch/CSL. En concordance avec cette hypothèse, nous avons constaté que la perte de ATF3 dans les DFs favorisait la tumorigénicité des kératinocytes via le contrôle négatif de cytokines, des enzymes de la matrice de remodelage et de protéines associées au cancer, peut-être par liaison directe des effecteurs de la voie Notch/CSL : IL6 et les gènes Hes. Enfin, dans les échantillons cliniques humains, le stroma sous-jacent aux lésions précancéreuses de kératoses actiniques montre une diminution significative de l'expression de ATF3 par rapport au stroma jouxtant la peau normale. La restauration de l'expression de ATF3 pourrait être utilisée comme un outil thérapeutique en recherche translationnelle pour prévenir ou réprimer le processus de cancérisation en domaine. - Epithelial-mesenchymal interactions play an important role in control of normal skin development, homeostasis and tumorigenesis. The role of dermal fibroblasts (DFs) as the most abundant cell type in stroma is increasingly appreciated. Especially during tumorigenesis, fibroblasts surrounding epithelial tumors, called Cancer Associated Fibroblasts (CAFs), produce diffusible factors (growth factors, inflammatory cytokines, chemokines and enzymes, and matrix metalloproteinases) that mediate inflammation either directly or indirectly through paracrine signaling between stroma and epithelial cancer cells. The risk of skin cancer increases exponentially with age. As a likely link between the two, senescence of fibroblasts results in production of the senescence-messaging-secretome (SMS), a panel of diffusible factors inducing paracrine growth stimulation, inflammation, and matrix remodeling. Interestingly, induction of these genes is also a characteristic of Cancer Associated Fibroblasts (CAFs). However, the link between the two cellular events, senescence and CAF activation is largely unexplored. ATF3 is a key stress response transcription factor with highly cell type specific functions, which has been discovered as a tumor promoter in keratinocytes in our lab. However, the biological and biochemical function of ATF3 in the dermal compartment of the skin has not been studied yet. Recently, we found that compromised Notch/CSL signaling in dermal fibroblasts (DFs) in mice is a primary cause of multifocal keratinocyte tumors called field cancerization associated with stromal atrophy, matrix alterations and inflammation. Further studies showed that CSL functions as a negative regulator of genes involved in DFs senescence and CAF activation. Here, we show that deletion or silencing of the ATF3 gene in DFs activates senescence and CAF-related gene expression similar to that triggered by loss of CSL, while increased ATF3 suppresses these changes. We hypothesize that ATF3 plays a suppressing role in CAF activation and keratinocyte tumor progression, overcoming the consequences of compromised Notch/CSL signaling. In support of this hypothesis, we found that loss of ATF3 in DFs promotes tumorigenic behavior of keratinocytes via negative control of cytokines, matrix-remodeling enzymes and cancer-associated proteins, possibly through direct binding to Notch/CSL targets, IL6 and Hes genes. On the other hand, in human clinical samples, stromal fields underlying premalignant actinic keratosis lesions showed significantly decreased ATF3 expression relative to stroma of flanking normal skin. Restoration of ATF3, which is lost in cancer development, may be used as a therapeutic tool for translational research to prevent or suppress the field cancerization process.
Resumo:
L'hypertrophie ventriculaire pathologique chez les nouveau-nés des mères diabétiques une étude rétrospective RESUME Objectif L'incidence du diabète chez les femmes enceintes ne cesse de croître, de même que les complications chez leurs nouveau-nés. C'est pourquoi, nous avons étudié la population de mères diabétiques suivies dans notre établissement entre les années 2003-2005 dans le but d'analyser spécifiquement le problème d'hypertrophie ventriculaire pathologique (HVP) chez les nouveau-nés de cette population. Méthode et résultats Dans notre étude rétrospective comprenant 87 grossesses de femmes diabétiques (92 nouveau-nés), 16 présentaient un diabète de type 1, 17 de type 2 et 54 ont développé un diabète gestationnel (DG). Le médian des hémoglobines glycquées (HbAlc) pour cette population est de 5.8% (5.3-6.5) : 17 avaient une HbAlc au-dessus de la norme, dont 2 souffrant d'une cardiomyopathie congénitale (CMC) et six d'une HVP. Un total de 75 nouveaux-nés étaient normaux, cinq avaient une CMC et 12 une HVP (1/12 décédé post-natalement, 1/12 mort-né, 2/12 nécessitant un accouchement prématuré, 8/12 normaux). Les 16 mères avec un diabète de type 1 accouchèrent de trois nouveau-nés avec une CMC et de 50% avec une HVP, comprenant un enfant décédé et un prématuré né par césarienne à cause d'une HVP. Dans le groupe des 17 nouveau-nés issus d'une mère connue pour un diabète de type 2, un cas présentait une CMC et 25% des cas une HVP. Parmi les 54 grossesses avec un DG, on dénombre un cas de CMC et un cas de HVP. Conclusion Les grossesses de mères souffrant d'un diabète de type 1 et de type 2 comportent toutes deux un risque augmenté de développement d'une HVP comparées à celles de mères ayant développé un diabète gestationnel. Les contrôles glycémiques sont insuffisants pour éviter la survenue d'une HVP. Comme aucun autre paramètre prédictif n'a pu été défini jusqu'alors, nous concluons qu'un suivi échographique rapproché de ces grossesses peut prévenir des complications périnatales sévères.
Resumo:
Résumé de thèseLe syndrome de PFAPA est une maladie fébrile récurrente décrite pour la première fois en 1987 par Marshall et col. Elle est caractérisée par une fièvre périodique, une stomatite aphteuse, une pharyngite et des adénopathies. Ce syndrome débute dans les premières années de vie et est connu pour disparaître spontanément en principe avant l'adolescence. Hormis un traitement de prednisone en début de crise, aucun traitement n'a pu montrer une efficacité thérapeutique ou curative.L'origine et l'étiologie de cette maladie sont encore inconnues à ce jour et le diagnostic reste un diagnostic d'exclusion qui repose sur des critères définis par différents groupes depuis 1987. Dans le cadre du Working Party periodic fever de la Société Européenne de Rhumatologie pédiatrique (PreS), un groupe a été établi et celui-ci a mis en place un registre de patients atteints de PFAPA afin d'analyser cette maladie et de mieux définir les critères diagnostic. Le Dr Michael Hofer a été nommé chairman de ce groupe et a introduit rapidement les patients romands dans cet outil de travail.L'introduction des patients romands dans la base de données ainsi créée, nous a suggéré une susceptibilité familiale qui nous a poussés à investiguer ce point de manière plus approfondie. Nous avons donc regroupé tous les patients lausannois et ceux de collègues bordelais ayant un diagnostic avéré de PFAPA. Nous avons ensuite interrogé, au cours d'un entretien téléphonique, les familles de ces enfants grâce à un questionnaire standardisé. Celui-ci a été testé et validé sur des patients sains d'une consultation de pédiatrie générale.Nous avons ensuite réunie toutes ces informations et séparés les patients en deux groupes AF+ (anamnèse familiale positive pour une fièvre récurrente) et AF- (anamnèse familiale négative pour une fièvre récurrente). Nous avons établi des comparaisons entre les 2 différents groupes en reprenant les caractéristiques de ces patients depuis le registre PFAPA dans lequel ils sont tous inclus. Les analyses ont été contrôlées et validées par le centre d'épidémiologie clinique grâce aux méthodes statistiques reconnues.Les résultats obtenus et qui sont détaillés dans l'article, permettent de suspecter une origine familiale et par là même, potentiellement génétique, à cette maladie d'étiologie inconnue. Jusqu'à présent aucune prépondérance familiale n'avait pu être mise en évidence dans les autres études sur le sujet. Pourtant cette maladie fait partie du groupe des fièvres récurrentes qui ont pour beaucoup déjà un diagnostic génétique.Notre étude ouvre donc des perspectives non seulement de recherche sur l'éventuelle cause génétique mais pourrait également permettre une meilleure compréhension de la maladie, de ses diverses présentations ainsi que par la suite de nouvelles possibilités thérapeutiques.
Resumo:
I. Facteurs associés avec l'infection tuberculose latent chez les requérants d'asile entrant dans le canton de Vaud : Une étude transversale dans le canton de Vaud. Objectifs : Les objectifs de cette étude étaient l'identification des facteurs associés à l'infection tuberculeuse latente (ITBL) chez les requérants d'asile récemment arrivés au Canton de Vaud et leur utilisation pondérée pour l'élaboration d'un score prédictif qui pourrait permettre la meilleure sélection des individus à dépister avec les Interferon Gamma Release Assays (IGRA). Méthode : Le protocole de l'étude prévoyait l'inclusion des requérants d'asile de plus de 16 ans, récemment arrivés dans deux centre de requérant du canton de Vaud ceux de Sainte-Croix et de Crissier. De septembre 2009 à juillet 2010 les requérants d'asile ont bénéficié lors des visites au centre de soins infirmier (CSI) d'informations sur l'ITBL et le protocole et les enjeux de l'étude. Les requérants d'asile ont d'emblée été informées que leur participation à l'étude n'aurait pas d'impact sur le débouché de leur dossier d'asile et qu'il n'y aurait pas de compensation financière à leur participation. Après avoir signé le consentement éclairé les requérants d'asile bénéficiaient d'une entrevue avec l'infirmière du centre où un questionnaire démographique et médical était remplit. 10cc de sang étaient prélevés à la fin de l'entrevue pour l'examen IGRA. Les patients présentant des symptômes évocateurs de tuberculose active ou un anamnèse de traitement pour une tuberculose active étaient exclus de l'étude et adressés au médecin référant du centre pour une visite médicale. Selon les résultats du test T-SPOT.TB (IGRA), les requérants étaient classés en deux groupes : positifs et négatifs. Le groupe IGRA positif était adressé au médecin référant. L'analyse statistique des données de l'étude a été réalisée par le logiciel STATA 11.2. Les coefficients de l'analyse multivariée ont été combinées pour la création d'un score pronostic dont la puissance de discrimination a été évaluée par une courbe ROC. Le protocole de l'étude avait reçu l'aval de la commission d'éthique de l'Université de Lausanne. Résultats : Durant la période de l'étude, 788 requérants d'asile ont été hébergés dans les deux centres de l'étude. 639 avaient plus de 16 ans et 393 d'entre eux ont participé à l'étude (61.50%). 295 (75.06%) avaient un IGRA négatif et 98 (24.93%) étaient positifs. A noter que parmi les 98 positifs, 5 avaient une tuberculose active non détecté précédemment. Les analyses univarié et multivarié ont permis d'identifier 6 facteurs associées à l'ITBL : Région d'origine, moyen de transport, état civil, âge, toux et antécédent d'exposition à la tuberculose. Le score élaboré en combinant ces 6 facteurs présente un AUC de 81% avec une sensibilité de 80%, une spécificité de 70% et des valeurs prédictive positive et négative respectivement de 45% et 92% quant un seuil de 13 est utilisé. Conclusion : Les requérants d'asile qui immigrent en Suisse proviennent de pays où l'incidence de la tuberculose est supérieure à celle des pays de l'Europe occidentale et présentent un risque élevé pour l'infection tuberculose latente (ITBL). L'origine comme seul facteur n'est pas suffisant pour stratifier le risque d'ITBL et ne peut pas justifier la prescription d'un traitement préventif d'ITBL. L'introduction des tests de détection, hautement spécifiques de l'infection au M. tuberculosis tel que les IGRA ainsi que le taux élevé de réussite des traitements préventifs de l'infection latente ont ouvert la voie à un dépistage précoce de l'ITBL qui compléterait le dépistage de la tuberculose active actuellement effectué à la frontière. Afin de mieux cibler le dépistage par ces tests une meilleure sélection des individus à dépister est impérative. Elle pourrait se faire en évaluant le score individuel de risque ITBL par requérant. -- II. Taux élevé d'adhérence au traitement préventif de l'infection tuberculeuse latente prescrit à un collectif de requérants d'asile dans un canton suisse. Objectifs: L'efficacité du traitement préventif de l'infection tuberculeuse latente dépend de l'adherence du sujet au traitement. Un traitement bien conduit pour une duré prévue est en mesure de prévenir l'activation des cas d'infection tuberculeuse latente (ITBL). Le plus grand enjeu dans un programme préventif pour la tuberculose est, outre de cibler la détection des individus les plus à risque pour l'ITBL, de pouvoir traiter efficacement le collectif dépisté positif. Cette étude évaluait la faisabilité d'un traitement préventif court parmi un collectif de requérants d'asile porteurs d'une ITBL dans le canton de Vaud. Méthode: Nous avons effectué une étude prospective de cohorte parmi des requérants d'asile récemment attribués dans le canton de Vaud, âgés de plus de 16 ans et qui avaient été dépistés positifs par IGRA. L'ensemble du collectif selon le protocole de l'étude était adressé au médecin référant afin d'exclure une tuberculose active et pour discuter du traitement préventif si le diagnostic d'ITBL était confirmé. Lors de la première visite médicale, outre l'examen clinique, un bilan radiologique avec une radiographie du thorax et un bilan de la biologie hépatique ainsi qu'un test de dépistage HIV était proposé à l'ensemble du collectif. En cas de suspicion clinique ou d'image radiologique suspecte de tuberculose active le sujet était adressé pour des examens complémentaires. Les sujets porteurs d'ITBL se voyaient proposés, en l'absence de contre indications, un traitement de rifampicine de quatre mois. En acceptant de participer à l'étude ils s'engageaient de se présenter à leur contrôle médical mensuel où était évaluée l'adhérence au traitement et l'apparition d'effets indésirable ou de complications. Si l'adhérence était jugée correcte l'ordonnance du traitement était renouvelée d'un mois et le requérant recevait son prochain rendez-vous de contrôle. L'adhérence était considéré satisfaisante si le patient était adhérent à son schéma de visites médicales et demandait le renouvellement de son ordonnance. Si le requérant d'asile ne se présentait pas à deux contrôles il était considéré comme non adhérent et son traitement est suspendu. Résultats : Notre collectif comptait 98 sujet présument atteint de ITBL sur la base du test T-SPOT.TB ce qui représentait 24.9% du collectif initial. L'âge moyen était de 26.7 ans, 74% était des hommes. La majorité étaient des africains: 66 %, 17% étaient asiatiques et les populations balkaniques et de l'exunion soviétique étaient représentés à part égale d'huit pourcent. Parmi notre collectif nous n'avions pas de sujet immunodéficient notamment HIV positif. Des 98 sujets, 11 ne se sont pas présenté à leur visite médicale initiale. La visite médicale initiale a permis la détection de 8 patients porteurs d'une tuberculose active, dont cinq ont reçu un traitement antituberculeux, ou d'une autre affection pulmonaire non tuberculeuse. Chez deux patients il y avait une contre-indication au traitement préventif et deux avaient un anamnèse positif de traitement antituberculeux non précédemment déclaré. Le traitement préventif a été prescrit à 74 requérants d'asile. Durant le suivi mensuel trois requérants ne se sont pas présentés lors de la première visite de suivi, trois lors de la seconde et sept lors de la troisième pour un total de 13 sujets. Chez deux sujets le traitement préventif a du être suspendu à cause d'une adhérence problématique secondaire à des abus de substances illégales. Durant le suivi, nous n'avons pas eu de sérieuses complications ni d'effets indésirables au traitement qui auraient nécessité son arrêt. En final 60/75 des sujets ont achevé leur traitement soit 80% du collectif. Conclusion: Malgré la vulnérabilité et la volatilité inhérente à cette population qui est d'ailleurs la plus à risqué de réactivation d'une ITBL, cette étude montre que il est possible d'obtenir de taux d'adhérence très élevés au traitement préventif. Nous considérons que les conditions qui ont permis ces résultats sont la prescription d'un schéma de traitement préventif court, un suivi médico-soignant régulier et l'hébergement contrôlée et stable où résidait notre collectif.
Resumo:
Abstract Long term contact with pathogens induces an adaptive immune response, which is mainly mediated by T and B cells. Antigen-induced activation of T and B cells is an important event, since it facilitates the transition of harmless, low proliferative lymphocytes into powerful and fast expanding cells, which can, if deregulated, be extremely harmful and dangerous for the human body. One of the most important events during lymphocyte activation is the induction of NF-xB activity, a transcription factor that controls not only cytokine secretion, but also lymphocyte proliferation and survival. Recent discoveries identified the CBM complex as the central regulator of NF-xB activity in lymphocytes. The CBM complex consists of the three proteins Carma1, Bcl10 and Malt1, in which Carma1 serves as recruitment platform of the complex and Bcl10 as an adaptor to recruit Malt1 to this platform. But exactly how Malt1 activates NF-x6 is still poorly understood. We discovered that Malt1 is a protease, which cleaves its interaction partner Bcl10 upon T and B cell stimulation. We mapped the Bcl10 cleavage site by single point mutations as well as by a proteomics approach, and used this knowledge to design a fluorogenic Malt1 reporter peptide. With this tool were we able to the first time demonstrate proteolytic activity of Malt1 in vitro, using recombinant Malt1, and in stimulated T cells. Based on similarities to a metacaspase, we designed a Malt1inhibitor, which allowed unto investigate the role of Malt1 activity in T cells. Malt1-inhibited T cells showed a clear defect in NF-xB activity, resulting in impaired IL-2 cytokine secretion levels. We also found a new unexpected role for Bcl10; the blockade of Bcl10 cleavage resulted in a strongly impaired capability of stimulated T cells to adhere to the extracellular matrix protein fibronectin. Because of the central position of the C8M complex, it is not surprising that different lymphomas show abnormal expressions of Carma1, Bcl10 and Malt1. We investigated the role of Malt1 proteolytic activity in the most aggressive subtype of diffuse large B cell lymphomas called ABC, which was described to depend on the expression of Carmal, and frequently carries oncogenic Carmal mutations. We found constitutive high Malt1 activity in all tested ABC cell lines visualized by detection of cleavage products of Malt1 substrates. With the use of the Malt1-inhibitor, we could demonstrate that Malt-inhibition in those cells had two effects. First, the tumor cell proliferation was decreased, most likely because of lower autocrine stimulation by cytokines. Second, we could sensitize the ABC cells towards cell death, which is most likely caused by reduced expression of prosurvival NF-xB target gens. Taken together, we identified Malt1 as a protease in T and B cells, demonstrated its importance for NF-xB signaling and its deregulation in a subtype of diffuse large B cell lymphoma. This could allow the development of a new generation of immunomodulatory and anti-cancer drugs. Résumé Un contact prolongé avec des pathogènes provoque une réponse immunitaire adaptative qui dépend principalement des cellules T et 8. L'activation des lymphocytes T et B, suite à la reconnaissance d'un antigène, est un événement important puisqu'il facilite la transition pour ces cellules d'un état de prolifération limitée et inoffensive à une prolifération soutenue et rapide. Lorsque ce mécanisme est déréglé ìl peut devenir extrêmement nuisible et dangereux pour le corps humain. Un des événement les plus importants lors de l'activation des lymphocytes est l'induction du facteur de transcription NFxB, qui organise la sécrétion de cytokines ainsi que la prolifération et la survie des lymphocytes. Le complexe CBM, composé des trois protéines Carmai, Bc110 et Malt1, a été récemment identifié comme un régulateur central de l'activité de NF-x8 dans les lymphocytes. Carma1 sert de plateforme de recrutement pour ce complexe alors que Bc110 permet d'amener Malt1 dans cette plateforme. Cependant, le rôle exact de Malt1 dans l'activation de NF-tcB reste encore mal compris. Nous avons découvert que Malt1 est une protéase qui clive son partenaire d'interaction BcI10 après stimulation des cellules T et B. Nous avons identifié le site de clivage de BcI10 par une série de mutations ponctuelles ainsi que par une approche protéomique, ce qui nous a permis de fabriquer un peptide reporteur fluorogénique pour mesurer l'activité de Malt1. Grâce à cet outil, nous avons démontré pour la première fois l'activité protéolytique de Malt1 in vitro à l'aide de protéines Malt1 recombinantes ainsi que dans des cellules T stimulées. La ressemblance de Malt1 avec une métacaspase nous a permis de synthétiser un inhibiteur de Malt1 et d'étudier ainsi le rôle de l'activité de Malt1 dans les cellules T. L'inhibition de Malt1 dans les cellules T a révélé un net défaut de l'activité de NF-x8, ayant pour effet une sécrétion réduite de la cytokine IL-2. Nous avons également découvert un rôle inattendu pour Bcl10: en effet, bloquer le clivage de Bcl10 diminue fortement la capacité d'adhésion des cellules T stimulées à la protéine fïbronectine, un composant de la matrice extracellulaire. En raison de la position centrale du complexe CBM, il n'est pas étonnant que le niveau d'expression de Carmai, Bcl10 et Malt1 soit anormal dans plusieurs types de lymphomes. Nous avons examiné le rôle de l'activité protéolytique de Malt1 dans le sous-type le plus agressif des lymphomes B diffus à grandes cellules, appelé sous-type ABC. Ce sous-type de lymphomes dépend de l'expression de Carmai et présente souvent des mutations oncogéniques de Carma1. Nous avons démontré que l'activité de Malt1 était constitutivement élevée dans toutes les lignées cellulaires de type ABC testées, en mettant en évidence la présence de produits de clivage de différents substrats de Malt1. Enfin, l'utilisation de l'inhibiteur de Malt1 nous a permis de démontrer que l'inhibition de Malt1 avait deux effets. Premièrement, une diminution de la prolifération des cellules tumorales, probablement dûe à leur stimulation autocrine par des cytokines fortement réduite. Deuxièmement, une sensibilisation des cellules de type ABC à ia mort cellulaire, vraisemblablement causée par l'expression diminuée de gènes de survie dépendants de NF-tcB. En résumé, nous avons identifié Malt1 comme une protéase dans les cellules T et B, nous avons mis en évidence son importance pour l'activation de NF-xB ainsi que les conséquences du dérèglement de l'activité de Malt1 dans un sous-type de lymphome B diffus à larges cellules. Notre étude ouvre ainsi la voie au développement d'une nouvelle génération de médicaments immunomodulateurs et anti-cancéreux.
Resumo:
Rapport de synthèse : Introduction : Internet est une source importante d'information sur la santé mentale. Le trouble bipolaire est communément associé à un handicap, des comorbidités, un faible taux d'introspection et une mauvaise compliance au traitement. Le fardeau de la maladie, de par les épisodes dépressifs et maniaques, peut conduire les personnes (dont le diagnostic de trouble bipolaire a été déjà posé ou non), ainsi que leur famille à rechercher des informations sur Internet. De ce fait, il est important que les sites Web traitant du sujet contiennent de l'information de haute qualité, basée sur les évidences scientifiques. Objectif.: évaluer la qualité des informations consultables sur Internat au sujet du trouble bipolaire et identifier des indicateurs de qualité. Méthode: deux mots-clés : « bipolar disorder » et « manic depressive illness » ont été introduits dans les moteurs de recherche les plus souvent utilisés sur Internet. Les sites Internet ont été évalués avec un formulaire standard conçu pour noter les sites sur la base de l'auteur (privé, université, entreprise,...), la présentation, l'interactivité, la lisibilité et la qualité du contenu. Le label de qualité « Health On the Net» (HON), et l'outil DISCERN ont été utilisés pour vérifier leur efficacité comme indicateurs de la qualité. Résultats: sur les 80 sites identifiés, 34 ont été inclus. Sur la base de la mesure des résultats, la qualité du contenu des sites s'est avérée être bonne. La qualité du contenu des sites Web qui traitent du trouble bipolaire est expliquée de manière significative par la lisibilité, la responsabilité et l'interactivité aussi bien que par un score global. Conclusions: dans l'ensemble, la qualité du contenu de l'étude des sites Web traitant du trouble bipolaire est de bonne qualité.
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.
Resumo:
SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.
Une nouvelle facette du travail indépendant : les chômeurs créateurs d'entreprise : une étude de cas
Resumo:
Dans le monde social, la figure du chômeur créateur d'entreprise se voit réduite à une approche essentiellement économique qui se polarise entre d'un côté, une valorisation de la création d'entreprises individuelles présentée par les milieux économiques comme un outil efficace de relance de la croissance et de résolution de la question du chômage , et de l'autre, une dénonciation des risques financiers et des dangers sociaux encourus par les individus qui se lancent dans une telle démarche. Mais au final, que sait-on réellement de ces nouveaux indépendants, de leur situation, du sens qu'ils donnent à leur activité, bref de ce qu'ils peuvent vivre ? Leur émergence concorde-t-elle avec un nouveau choix de vie, un désir de conciliation entre projet de vie et projet professionnel, ou sommes-nous face à un nouveau visage de la précarité en lien avec le contexte de la crise de l'emploi ? Répondent-ils au slogan largement véhiculé par le discours économique et politique selon lequel « il faut devenir l'entrepreneur de sa propre vie » , expression d'un individualisme exacerbé et d'une volonté non dissimulée de responsabilisation des agents sociaux ? Enfin, ce nouveau type d'autoemploi représente-t-il une étape de transition vers la réinsertion dans la société salariale, ou l'émergence d'une évolution significative des comportements de travail et des significations qui lui sont attribuées? C'est à toutes ces questions que notre recherche tente de répondre. La figure du chômeur créateur émerge dans un environnement dominé par une logique qui ne cesse de promouvoir la figure de l'homo oeconomicus comme modèle à suivre . Il faut être libre, autonome, responsable, calculateur et entreprenant. Si en apparence, ces créateurs d'entreprise peuvent être assimilés à la figure de l'entrepreneur schumpeterien, sur les critères de la réponse qu'ils apportent à l'impératif d'individualisation et de responsabilisation, ils opèrent en réalité une subtile réappropriation de cette exigence en l'adaptant aux critères de l'épanouissement personnel. Unanimement satisfaits tant sur le plan des « attributs intrinsèques » qu' « extrinsèques » du travail, la majorité des créateurs rencontrés ne ressentent pas leur situation d'emploi comme précaire. Ils refusent par ailleurs avec force d'envisager un retour au salariat, même lorsque la santé de leur entreprise menace leur survie économique et leur emploi. Cette position à l'égard de la condition salariale trouve sa justification dans une primauté accordée aux valeurs épanouissantes de l'activité exercée, au détriment d'une quête de stabilité financière et professionnelle. Les dimensions de la liberté, de l'autonomie et de la maîtrise des conditions de travail sont des composantes essentielles à la compréhension du désir de se maintenir dans l'activité indépendante. Dans la construction de ce modèle de travail et dans la relation entretenue à la nouvelle modalité d'emploi, ce n'est pas tant le passage par le chômage, mais bien plus l'expérience salariale antérieure, qui entre en jeu de manière significative. Les bouleversements dans la hiérarchie des valeurs de ces travailleurs sont ainsi peut-être le signe d'une évolution des comportements face à la condition salariale. L'attachement presque inconditionnel des répondants à leur nouveau statut, combiné à un refus catégorique d'envisager un retour au salariat, peut faire l'objet d'une interprétation en termes de détachement par rapport à la norme fordiste, laquelle perdure encore comme principale référence normative, au sein d'une majorité de travailleurs, malgré une application de plus en plus compromise. Par conséquent, l'attitude des chômeurs créateurs témoignerait d'une transition initiée entre un modèle d'emploi devenu obsolète et la construction d'une pluralité de modèles davantage élaborés sur la base de critères individuels.
Resumo:
RésuméCette thèse traite de l'utilisation des concepts de Symbiose Industrielle dans les pays en développement et étudie le potentiel de cette stratégie pour stimuler un développement régional durable dans les zones rurales d'Afrique de l'Ouest. En particulier, lorsqu'une Symbiose Industrielle est instaurée entre une usine et sa population alentour, des outils d'évaluation sont nécessaires pour garantir que le projet permette d'atteindre un réel développement durable. Les outils existants, développés dans les pays industrialisés, ne sont cependant pas complètement adaptés pour l'évaluation de projets dans les pays en développement. En effet, les outils sont porteurs d'hypothèses implicites propres au contexte socio-économique dans lequel ils ont été conçus.L'objectif de cette thèse est de développer un cadre méthodologique pour l'évaluation de la durabilité de projets de Symbiose Industrielle dans les pays en développement.Pour ce faire, je m'appuie sur une étude de cas de la mise en place d'une Symbiose Industrielle au nord du Nigéria, à laquelle j'ai participé en tant qu'observatrice dès 2007. AshakaCem, une usine productrice de ciment du groupe Lafarge, doit faire face à de nombreuses tensions avec la population rurale alentour. L'entreprise a donc décidé d'adopter une nouvelle méthode inspirée des concepts de Symbiose Industrielle. Le projet consiste à remplacer jusqu'à 10% du carburant fossile utilisé pour la cuisson de la matière crue (calcaire et additifs) par de la biomasse produite par les paysans locaux. Pour ne pas compromettre la fragile sécurité alimentaire régionale, des techniques de lutte contre l'érosion et de fertilisation naturelle des sols sont enseignées aux paysans, qui peuvent ainsi utiliser la culture de biomasse pour améliorer leurs cultures vivrières. A travers cette Symbiose Industrielle, l'entreprise poursuit des objectifs sociaux (poser les bases nécessaires à un développement régional), mais également environnementaux (réduire ses émissions de CO2 globales) et économiques (réduire ses coûts énergétiques). Elle s'ancre ainsi dans une perspective de développement durable qui est conditionnelle à la réalisation du projet.A travers l'observation de cette Symbiose et par la connaissance des outils existants je constate qu'une évaluation de la durabilité de projets dans les pays en développement nécessite l'utilisation de critères d'évaluation propres à chaque projet. En effet, dans ce contexte, l'emploi de critères génériques apporte une évaluation trop éloignée des besoins et de la réalité locale. C'est pourquoi, en m'inspirant des outils internationalement reconnus comme l'Analyse du Cycle de Vie ou la Global Reporting Initiative, je définis dans cette thèse un cadre méthodologique qui peut, lui, être identique pour tous les projets. Cette stratégie suit six étapes, qui se réalisent de manière itérative pour permettre une auto¬amélioration de la méthodologie d'évaluation et du projet lui-même. Au cours de ces étapes, les besoins et objectifs en termes sociaux, économiques et environnementaux des différents acteurs sont déterminés, puis regroupés, hiérarchisés et formulés sous forme de critères à évaluer. Des indicateurs quantitatifs ou qualitatifs sont ensuite définis pour chacun de ces critères. Une des spécificités de cette stratégie est de définir une échelle d'évaluation en cinq graduations, identique pour chaque indicateur, témoignant d'un objectif totalement atteint (++) ou pas du tout atteint (--).L'application de ce cadre méthodologique à la Symbiose nigériane a permis de déterminer quatre critères économiques, quatre critères socio-économiques et six critères environnementaux à évaluer. Pour les caractériser, 22 indicateurs ont été définis. L'évaluation de ces indicateurs a permis de montrer que le projet élaboré atteint les objectifs de durabilité fixés pour la majorité des critères. Quatre indicateurs ont un résultat neutre (0), et un cinquième montre qu'un critère n'est pas atteint (--). Ces résultats s'expliquent par le fait que le projet n'en est encore qu'à sa phase pilote et n'a donc pas encore atteint la taille et la diffusion optimales. Un suivi sur plusieurs années permettra de garantir que ces manques seront comblés.Le cadre méthodologique que j'ai développé dans cette thèse est un outil d'évaluation participatif qui pourra être utilisé dans un contexte plus large que celui des pays en développement. Son caractère générique en fait un très bon outil pour la définition de critères et indicateurs de suivi de projet en terme de développement durable.SummaryThis thesis examines the use of industrial symbiosis in developing countries and studies its potential to stimulate sustainable regional development in rural areas across Western Africa. In particular, when industrial symbiosis is instituted between a factory and the surrounding population, evaluation tools are required to ensure the project achieves truly sustainable development. Existing tools developed in industrialized countries are not entirely suited to assessing projects in developing countries. Indeed, the implicit hypotheses behind such tools reflect the socioeconomic context in which they were designed. The goal of this thesis is to develop a methodological framework for evaluating the sustainability of industrial symbiosis projects in developing countries.To accomplish this, I followed a case study about the implementation of industrial symbiosis in northern Nigeria by participating as an observer since 2007. AshakaCem, a cement works of Lafarge group, must confront many issues associated with violence committed by the local rural population. Thus, the company decided to adopt a new approach inspired by the concepts of industrial symbiosis.The project involves replacing up to 10% of the fossil fuel used to heat limestone with biomass produced by local farmers. To avoid jeopardizing the fragile security of regional food supplies, farmers are taught ways to combat erosion and naturally fertilize the soil. They can then use biomass cultivation to improve their subsistence crops. Through this industrial symbiosis, AshakaCem follows social objectives (to lay the necessary foundations for regional development), but also environmental ones (to reduce its overall CO2 emissions) and economical ones (to reduce its energy costs). The company is firmly rooted in a view of sustainable development that is conditional upon the project's execution.By observing this symbiosis and by being familiar with existing tools, I note that assessing the sustainability of projects in developing countries requires using evaluation criteria that are specific to each project. Indeed, using generic criteria results in an assessment that is too far removed from what is needed and from the local reality. Thus, by drawing inspiration from such internationally known tools as Life Cycle Analysis and the Global Reporting Initiative, I define a generic methodological framework for the participative establishment of an evaluation methodology specific to each project.The strategy follows six phases that are fulfilled iteratively so as to improve the evaluation methodology and the project itself as it moves forward. During these phases, the social, economic, and environmental needs and objectives of the stakeholders are identified, grouped, ranked, and expressed as criteria for evaluation. Quantitative or qualitative indicators are then defined for each of these criteria. One of the characteristics of this strategy is to define a five-point evaluation scale, the same for each indicator, to reflect a goal that was completely reached (++) or not reached at all (--).Applying the methodological framework to the Nigerian symbiosis yielded four economic criteria, four socioeconomic criteria, and six environmental criteria to assess. A total of 22 indicators were defined to characterize the criteria. Evaluating these indicators made it possible to show that the project meets the sustainability goals set for the majority of criteria. Four indicators had a neutral result (0); a fifth showed that one criterion had not been met (--). These results can be explained by the fact that the project is still only in its pilot phase and, therefore, still has not reached its optimum size and scope. Following up over several years will make it possible to ensure these gaps will be filled.The methodological framework presented in this thesis is a highly effective tool that can be used in a broader context than developing countries. Its generic nature makes it a very good tool for defining criteria and follow-up indicators for sustainable development.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Quand on parle de l'acide lactique (aussi connu sous le nom de lactate) une des premières choses qui vient à l'esprit, c'est son implication en cas d'intense activité musculaire. Sa production pendant une activité physique prolongée est associée avec la sensation de fatigue. Il n'est donc pas étonnant que cette molécule ait été longtemps considérée comme un résidu du métabolisme, possiblement toxique et donc à éliminer. En fait, il a été découvert que le lactate joue un rôle prépondérant dans le métabolisme grâce à son fort potentiel énergétique. Le cerveau, en particulier les neurones qui le composent, est un organe très gourmand en énergie. Récemment, il a été démontré que les astrocytes, cellules du cerveau faisant partie de la famille des cellules gliales, utilisent le glucose pour produire du lactate comme source d'énergie et le distribue aux neurones de manière adaptée à leur activité. Cette découverte a renouvelé l'intérêt scientifique pour le lactate. Aujourd'hui, plusieurs études ont démontré l'implication du lactate dans d'autres fonctions de la physiologie cérébrale. Dans le cadre de notre étude, nous nous sommes intéressés au rapport entre neurones et astrocytes avec une attention particulière pour le rôle du lactate. Nous avons découvert que le lactate possède la capacité de modifier la communication entre les neurones. Nous avons aussi décrypté le mécanisme grâce auquel le lactate agit, qui est basé sur un récepteur présent à la surface des neurones. Cette étude montre une fonction jusque-là insoupçonnée du lactate qui a un fort impact sur la compréhension de la relation entre neurones et astrocytes. - Relatively to its volume, the brain uses a large amount of glucose as energy source. Furthermore, a tight link exists between the level of synaptic activity and the consumption of energy equivalents. Astrocytes have been shown to play a central role in the regulation of this so-called neurometabolic coupling. They are thought to deliver the metabolic substrate lactate to neurons in register to glutamatergic activity. The astrocytic uptake of glutamate, released in the synaptic cleft, is the trigger signal that activates an intracellular cascade of events that leads to the production and release of lactate from astrocytes. The main goal of this thesis work was to obtain detailed information on the metabolic and functional interplay between neurons and astrocytes, in particular on the influence of lactate besides its metabolic effects. To gain access to both spatial and temporal aspects of these dynamic interactions, we used optical microscopy associated with specific fluorescent indicators, as well as electrophysiology. In the first part of this thesis, we show that lactate decreases spontaneous neuronal, activity in a concentration-dependent manner and independently of its metabolism. We further identified a receptor-mediated pathway underlying this modulatory action of lactate. This finding constituted a novel mechanism for the modulation of neuronal transmission by lactate. In the second part, we have undergone a characterization of a new pharmacological tool, a high affinity glutamate transporter inhibitor. The finality of this study was to investigate the detailed pharmacological properties of the compound to optimize its use as a suppressor of glutamate signal from neuron to astrocytes. In conclusion, both studies have implications not only for the understanding of the metabolic cooperation between neurons and astrocytes, but also in the context of the glial modulation of neuronal activity. - Par rapport à son volume, le cerveau utilise une quantité massive de glucose comme source d'énergie. De plus, la consommation d'équivalents énergétiques est étroitement liée au niveau d'activité synaptique. Il a été montré que dans ce couplage neurométabolique, un rôle central est joué par les astrocytes. Ces cellules fournissent le lactate, un substrat métabolique, aux neurones de manière adaptée à leur activité glutamatergique. Plus précisément, le glutamate libéré dans la fente synaptique par les neurones, est récupéré par les astrocytes et déclenche ainsi une cascade d'événements intracellulaires qui conduit à la production et libération de lactate. Les travaux de cette thèse ont visé à étudier la relation métabolique et fonctionnelle entre neurones et astrocytes, avec une attention particulière pour des rôles que pourrait avoir le lactate au-delà de sa fonction métabolique. Pour étudier les aspects spatio-temporels de ces interactions dynamiques, nous avons utilisé à la fois la microscopie optique associée à des indicateurs fluorescents spécifiques, ainsi que l'électrophysiologie. Dans la première partie de cette thèse, nous montrons que le lactate diminue l'activité neuronale spontanée de façon concentration-dépendante et indépendamment de son métabolisme. Nous avons identifié l'implication d'un récepteur neuronal au lactate qui sous-tend ce mécanisme de régulation. La découverte de cette signalisation via le lactate constitue un mode d'interaction supplémentaire et nouveau entre neurones et astrocytes. Dans la deuxième partie, nous avons caractérisé un outil pharmacologique, un inhibiteur des transporteurs du glutamate à haute affinité. Le but de cette étude était d'obtenir un agent pharmacologique capable d'interrompre spécifiquement le signal médié par le glutamate entre neurones et astrocytes pouvant permettre de mieux comprendre leur relation. En conclusion, ces études ont une implication non seulement pour la compréhension de la coopération entre neurones et astrocytes mais aussi dans le contexte de la modulation de l'activité neuronale par les cellules gliales.
Resumo:
Trois mois de conflit armé en Côte d’Ivoire pendant l’année 2002 finirent par provoquer la division du pays en deux régions, séparées par une ligne d’interposition contrôlée par les Forces Licorne françaises. Le processus de paix se prolongea dans le temps, caractérisé par un manque de confiance mutuelle et une immobilité politique. Ces faits ont débouché sur une situation d’impasse et la permanence de Laurent Gbagbo à la présidence du pays. De plus, les différents accords politiques n’aidèrent pas le processus de construction de la paix, puisqu’ils n’abordaient pas certains problèmes principaux du pays, comme par exemple la propriété des terres et les sujets concernant l’identité. Ce document de travail aspire, tout d’abord, à analyser les faits principaux et les causes qui provoquèrent le conflit à partir du coup d’état de 2002. En deuxième lieu, le document analyse le processus de paix et signale les éléments clé de l’Accord de Paix d’Ouagadougou (2007): la création d’une nouvelle et unique structure des forces armées, ainsi que l’identification de la population et la réalisation d’un processus électoral. L’objectif principal est de fournir un outil de travail à l’Institut Catalan International pour la Paix (ICIP) afin d’envoyer une mission d’observation électorale dans ce pays africain.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.