812 resultados para Jugement de probabilité
Resumo:
La pierre et l'image. Etude monographique de l'église de Saint-Chef en Dauphiné: L'ancienne abbatiale de Saint-Chef-en-Dauphiné est située dans l'Isère, à 10 km de Bourgoin-Jallieu et à 2 km de l'ancienne voie romaine qui joignait Vienne à Aoste par le col du Petit-Saint-Bernard. L'abbaye dépendait, dès sa fondation, des archevêques de Vienne, dont la cité se trouvait à 70 km plus à l'ouest. Selon le récit de l'archevêque Adon de Vienne, écrit à la fin du IXe siècle, l'abbaye de Saint-Chef aurait été fondée au cours du VIe siècle par saint Theudère sur un territoire appartenant à sa famille, le Val Rupien. D'abord dédié à la Vierge le monastère est placé, dès l'époque carolingienne, sous le double patronage de la Vierge et du saint fondateur, dont les reliques furent déposées dans l'église. Sans doute détruite et abandonnée lors des guerres bosonides qui provoquèrent la ruine de Vienne (882), l'abbaye est restaurée quelques années plus tard par des moines venus de Champagne : en 887 les moines de Montier-en-Der, fuyant leur abbaye menacée par les invasions normandes, trouvent refuge à Saint-Chef. Afin de promouvoir la reconstruction de l'abbaye, l'archevêque Barnoin, soutenu par Louis l'Aveugle, roi de Bourgogne, lui offrent des privilèges d'exemption et plusieurs donations. Signe de la renommée et de la prospérité dont bénéficiait alors le monastère, Hugues, héritier de Louis l'Aveugle, y reçoit son éducation. Vers 925 ou 926, alors que la Champagne est à. nouveau pacifiée, les moines de Montier-en-Der regagnent leur abbaye d'origine après avoir reconstruit, selon les sources, le « petit monastère de Saint-Chef ». L'abbaye dauphinoise n'est pas pour autant abandonnée et reste vraisemblablement en contact avec les moines champenois : en 928, Hugues de Provence fait des donations importantes d l'abbaye qui est alors formellement placée sous la juridiction de l'Eglise de Vienne. En 962, le Viennois est intégré au royaume de Bourgogne puis, en 1032, au domaine impérial. Construction de l'abbaye : Après le départ des moines de Montier-en-Der, l'église dauphinoise a vraisemblablement été reconstruite par saint Thibaud, archevêque de Vienne entre 970 et l'an mil. Ayant peut-être reçu son éducation dans l'abbaye dauphinoise, il est enterré dans l'église qui, selon certaines sources, associe dès lors son patronage à celui du saint fondateur. Elevée en petit appareil irrégulier, la nef actuelle de l'église de Saint-Chef pourrait appartenir à cette phase de construction de l'église. Fils du comte Hugues de Vienne qui possédait d'importants territoires autour de Saint-Chef, Thibaud était aussi lié aux comtes de Troyes et de Champagne : ce sont ces liens qui expliquent la présence répétée de l'archevêque en Champagne et dans la région de Montier-en-Der. Or, à la même époque, l'église champenoise est reconstruite par le célèbre Adson, abbé de 968 à 992. Des ressemblances entre cette construction et celle de Saint-Chef suggèrent la réalisation, au Xe siècle, de deux églises-soeurs. L'église préromane de Montier-en-Der possédait, à. l'ouest, un massif à double étage et l'est, des tours jumelles s'élevant au-dessus des deux chapelles latérales entourant l'abside. Ce plan présente plusieurs points de comparaison avec l'église actuelle de Saint-Chef : on constate en particulier une équivalence au niveau des dimensions (largeur-longueur des nefs et le diamètre de l'abside), un choix identique pour l'emplacement du choeur et des entrées secondaires : à l'extrémité ouest du bas-côté nord et à l'extrémité orientale du bas-côté sud. Ces analogies nous aident à. restituer le plan de Saint-Chef, tel qu'il pouvait apparaître du temps de Thibaud : la partie orientale de l'église, alors élevée en petit appareil irrégulier comme la nef actuelle, était sans doute dépourvue de transept ; à l'image de l'église champenoise, des tours jumelles pouvaient toutefois s'élever au-dessus des deux chapelles orientales. Si notre hypothèse est exacte, le parti architectural adopté à Saint-Chef comme à Montier¬en-Der correspond au plan des églises monastiques réformées au Xe siècle par les abbayes de Fleury et de Gorze (dès 934). Dans ce type d'églises que l'on rencontre essentiellement dans l'ancienne Lotharingie, mais aussi dans une région proche de Saint-Chef, en Savoie, les tours orientales possédaient, à l'étage, des tribunes qui donnaient sur le choeur. La forme caractéristique de ces églises est déterminée par l'observance de coutumes liturgiques communes aux abbayes réformées. Ainsi, la règle établie par la réforme indiquait la nécessité d'espaces surélevés situés à l'est et à l'ouest de l'église : ces espaces avaient pour fonction d'accueillir les choeurs des moines dont les chants alternaient avec ceux des moines réunis au niveau inférieur, devant le sanctuaire. Par la suite, sans doute en raison de nouvelles pratiques liturgiques, la partie orientale de l'église de Saint-Chef, reconstruite en moyen appareil régulier, est augmentée d'un transept à quatre chapelles latérales. Les deux tours, si elles existaient, sont détruites pour être reconstruites aux extrémités du transept, abritant des chapelles hautes qui donnaient sur les bras du transept et le choeur. La vision latérale entre les deux tribunes est alors favorisée par l'alignement des baies des tribunes et des arcades du transept. Grâce à ce système d'ouverture, les choeurs des moines se voyaient et s'entendaient parfaitement. Ce système de tribunes orientales apparaît dans certaines églises normandes du XIe siècle ou dans d'autres églises contemporaines qui semblent s'en inspirer, telles que la cathédrale du Puy ou l'abbatiale de Saint-Sever-sur-l'Adour. L'importance croissante des chants alternés dans les offices semble avoir favorisé l'émergence d'une telle architecture. L'étude du décor sculpté, et notamment des chapiteaux ornant les différentes parties de l'édifice, permet de dater les étapes de transformation de l'abbatiale. L'aménagement des chapelles orientales semble remonter à la première moitié du XIe siècle ; l'installation des piliers soutenant le transept et les deux tours de l'édifice est datable des années 1060-1080. Par la suite, sans doute du temps de Guillaume de la Tour-du-Pin, archevêque de Vienne entre 1165 et 1170, le transept et la croisée sont surélevés et voûtés et des fenêtres viennent ajourer le mur pignon oriental. Les indices de datation tardives, rassemblés au niveau supérieur du transept, ont été utilisés par les spécialistes de l'architecture, tels Raymond Oursel et Guy Barruol, pour dater l'ensemble de l'église du XIIe siècle. Pourtant, dans d'autres études, Otto Demus, Paul Deschamp et Marcel Thiboud dataient les peintures de Saint-Chef de la seconde moitié du XIe siècle, soit un demi-siècle au moins avant la datation proposée pour l'élévation architecturale. Cette contradiction apparente se trouve désormais résolue par la mise en évidence de phases distinctes de construction et de transformations de l'édifice. Les peintures : Le décor peint de l'abbatiale est conservé dans trois chapelles du transept : dans la chapelle Saint-Theudère, à l'extrémité sud du transept, dans la chapelle Saint-Clément, à son autre extrémité, et dans la chapelle haute s'élevant au-dessus de celle-ci. Selon une dédicace peinte derrière l'autel, cette chapelle est dédiée au Christ, aux archanges et à saint Georges martyr. L'analyse stylistique permet de dater les peintures du troisième ou du dernier quart du XIe siècle : leur réalisation semble donc succéder immédiatement à l'élévation du transept et des deux tours que l'on situe, on l'a vu, dans les années 1060-1080. Au cours de cette étude, on a aussi relevé la parenté des peintures avec des oeuvres normandes et espagnoles : ces ressemblances s'affirment par certaines caractéristiques de style, mais aussi par le traitement de l'espace. Par exemple, l'alignement des anges sur la voûte, ou des élus sur le mur ouest de la chapelle haute de Saint-Chef, rappellent certains Beatus du XIe siècle, tels que celui de Saint-Sever antérieur à 1072. Dans la chapelle haute, la hiérarchie céleste est distribuée par catégories autour du Christ, représenté au centre de la voûte ; cette disposition se retrouve à Saint-Michel d'Aiguilhe au Xe siècle, ainsi que dans le premier quart du XIIe siècle à Maderuelo en Catalogne et à Fenouilla en Roussillon. D'autres rapprochements avec des oeuvres ottoniennes et carolingiennes ont aussi été observés, ainsi qu'avec certaines enluminures d'Ingelard, moine à Saint-Germain des Prés entre 1030 et 1060. L'iconographie: Le sens de l'image avait donné lieu à quelques études ponctuelles. Cette thèse a permis, d'une part, la mise en évidence d'un unique programme iconographique auquel participent les peintures des trois chapelles de l'abbatiale et, d'autre part, la découverte des liens entre le choix iconographique de Saint-Chef et certaines sources littéraires. Ces rapports ont par exemple été relevés pour la figure de l'ange conduisant saint Jean à la Jérusalem céleste, sur le voûtain ouest de la chapelle haute. La figure très soignée de l'ange, portant les mêmes vêtements que le Christ peint au centre de la voûte, présente sur son auréole quelques traces sombres qui devaient à l'origine dessiner une croix : ce détail fait de l'ange une figure du Christ, figure qui apparaît dans certaines exégèses apocalyptiques telles que le Commentaire d'Ambroise Autpert au Ville siècle, celui d'Haymon d'Auxerre au IXe siècle ou, au début du XIIe siècle, de Rupert de Deutz. Pour Ambroise Autpert, l'ange guidant saint Jean est une image du Christ amenant l'Eglise terrestre à la Jérusalem céleste, à laquelle elle sera unie à la fin des temps. Les deux figures symboliquement unies par le geste du Christ empoignant la main de saint Jean est une image du corps mystique de Jésus, le corps étant l'Eglise et la tête, le Christ qui enseigne aux fidèles. L'iconographie des peintures de la chapelle haute est centrée autour de l'oeuvre de Rédemption et des moyens pour gagner le salut, la Jérusalem céleste étant le lieu de destination pour les élus. Au centre de la voûte, le Christ présente ses deux bras écartés, en signe d'accueil. Sur le livre ouvert qu'il tient entre les genoux, les mots pax vobis - ego sum renvoient aux paroles prononcées lors de son apparition aux disciples, après sa Résurrection et au terme de son oeuvre de Rédemption. A ses pieds, sur le voûtain oriental, la Vierge en orante, première médiatrice auprès de son Fils, intercède en faveur des humains. Grâce au sacrifice du Christ et à travers la médiation de la Vierge, les hommes peuvent accéder à la Jérusalem céleste : les élus sont ici représentés sur le dernier registre du mur ouest, directement sous la Jérusalem ; un cadre plus sombre y indique symboliquement l'accès à la cité céleste. A l'autre extrémité du voûtain, Adam et Eve sont figurés deux fois autour de l'arbre de la connaissance : chassés du paradis, ils s'éloignent de la cité ; mais une fois accomplie l'oeuvre de Rédemption, ils peuvent à nouveau s'acheminer vers elle. Les peintures de la chapelle inférieure participent elles aussi au projet iconographique de la Rédemption. Sur la voûte de la chapelle, les quatre fleuves paradisiaques entouraient à l'origine une colombe. Selon l'exégèse médiévale, ces fleuves représentent les quatre temps de l'histoire, les vertus ou les quatre évangiles, diffusés aux quatre coins de la terre. Selon une tradition littéraire et iconographique d'origine paléochrétienne, ce sont aussi les eaux paradisiaques qui viennent alimenter les fonts baptismaux : l'association de la colombe, figure du Saint-Esprit et des fleuves du paradis suggère la présence, au centre de la chapelle, des fonts baptismaux. L'image de la colombe se trouve, on l'a vu, dans le prolongement vertical du Christ ressuscité, représenté au centre de la voûte supérieure. Or, selon une tradition qui remonte à Philon et Ambroise de Milan, la source des quatre fleuves, de la Parole divine diffusée par les quatre Evangiles, c'est le Christ. Dans son traité sur le Saint-Esprit, l'évêque de Milan place à la source de l'Esprit saint l'enseignement du Verbe fait homme. Il ajoute que lorsqu'il s'était fait homme, le Saint-Esprit planait au-dessus de lui ; mais depuis la transfiguration de son humanité et sa Résurrection, le Fils de Dieu se tient au-dessus des hommes, à la source du Saint-Esprit : c'est la même logique verticale qui est traduite dans les peintures de Saint-Chef, le Christ ressuscité étant situé au-dessus du Saint-Esprit et des eaux paradisiaques, dans la chapelle haute. Si les grâces divines se diffusent de la source christique aux hommes selon un mouvement descendant, l'image suggère aussi la remontée vers Dieu : en plongeant dans les eaux du baptême, le fidèle initie un parcours qui le ramènera à la source, auprès du Christ. Or, cet ascension ne peut se faire qu'à travers la médiation de l'Eglise : dans la chapelle Saint-Clément, autour de la fenêtre nord, saint Pierre et Paul, princes de l'Eglise, reçoivent la Loi du Christ. Dans la chapelle supérieure, ici aussi autour de la fenêtre septentrionale, deux personnifications déversaient les eaux, sans doute contenues dans un vase, au-dessus d'un prêtre et d'un évêque peints dans les embrasures de la fenêtre : c'est ce dont témoigne une aquarelle du XIXe siècle. Ainsi baignés par l'eau vive de la doctrine, des vertus et des grâces issue de la source divine, les représentants de l'Eglise peuvent eux aussi devenir sources d'enseignement pour les hommes. Ils apparaissent, en tant que transmetteurs de la Parole divine, comme les médiateurs indispensables entre les fidèles et le Christ. C'est par les sacrements et par leur enseignement que les âmes peuvent remonter vers la source divine et jouir de la béatitude. Si l'espace nord est connoté de manière très positive puisqu'il est le lieu de la représentation théophanique et de la Rédemption, les peintures de la chapelle sud renvoient à un sens plus négatif. Sur l'intrados d'arc, des monstres marins sont répartis autour d'un masque barbu aux yeux écarquillés, dont les dents serrées laissent échapper des serpents : ce motif d'origine antique pourrait représenter la source des eaux infernales, dont le « verrou » sera rompu lors du Jugement dernier, à la fin des temps. La peinture située dans la conque absidale est d'ailleurs une allusion au Jugement. On y voit le Christ entouré de deux personnifications en attitude d'intercession, dont Misericordia : elle est, avec Pax, Justifia et Veritas, une des quatre vertus présentes lors du Jugement dernier. Sur le fond de l'absidiole apparaissent des couronnes : elles seront distribuées aux justes en signe de récompense et de vie éternelle. L'allusion au Jugement et à l'enfer est la vision qui s'offre au moine lorsqu'il gagnait l'église en franchissant la porte sud du transept. S'avançant vers le choeur où il rejoignait les stalles, le moine pouvait presque aussitôt, grâce au système ingénieux d'ouvertures que nous avons mentionné plus haut, contempler les peintures situées sur le plafond de la chapelle haute, soit le Christ en attitude d'accueil, les anges et peut-être la Jérusalem céleste ; de là jaillissaient les chants des moines. De façon symbolique, ils se rapprochaient ainsi de leurs modèles, les anges. Dans ce parcours symbolique qui le conduisait de la mer maléfique, représentée dans la chapelle Saint¬Theudère, à Dieu et aux anges, les moines pouvaient compter sur les prières des intercesseurs, de la Vierge, des anges et des saints, tous représentés dans la chapelle haute. A Saint-Chef, l'espace nord peut-être assimilé, pour plusieurs aspects, aux Westwerke carolingiens ou aux galilées clunisiennes. Les massifs occidentaux étaient en effet le lieu de commémoration de l'histoire du salut : sites Westwerke étaient surtout le lieu de la liturgie pascale et abritaient les fonts baptismaux, les galilées clunisiennes étaient réservées à la liturgie des morts, les moines cherchant, par leurs prières, à gagner le salut des défunts. A l'entrée des galilées comme à Saint-Chef, l'image du Christ annonçait le face à face auquel les élus auront droit, à la fin des temps. Elevée au Xe siècle et vraisemblablement transformée dans les années 1060-1080, l'église de Saint-Chef reflète, par son évolution architecturale, celle des pratiques liturgiques ; son programme iconographique, qui unit trois espaces distincts de l'église, traduit d'une manière parfois originale les préoccupations et les aspirations d'une communauté monastique du XIe siècle. On soulignera toutefois que notre compréhension des peintures est limitée par la perte du décor qui, sans doute, ornait l'abside et d'autres parties de l'église ; la disparition de la crypte du choeur nuit aussi à l'appréhension de l'organisation liturgique sur cette partie de l'édifice. Seules des fouilles archéologiques ou la découverte de nouvelles peintures pourront peut-être, à l'avenir, enrichir l'état de nos connaissances.
Resumo:
RESUME: Contexte : l'objectif de cette étude de cohorte prospective était de déterminer la relation entre la survenue d'infections et la dépendance fonctionnelle chez des résidents d'établissements de long séjour durant une période de 6 mois. Population et méthode : les patients inclus (1324 résidents) étaient âgés de 65 ans et plus (âge moyen 85.7 ans, 76.6% de femmes), étaient des résidents de 39 EMS du canton de Vaud. Au baseline, des données démographiques, médicales, concernant les facteurs de risque et protecteurs des infections ont été récoltées. Au cours du suivi de 6 mois, les infirmières des EMS ont documenté la survenue de symptômes et signes d'infection en utilisant les critères développés spécifiquement par l'APIC pour les établissements de long séjour. Les mesures du status fonctionnel ont été évaluées au baseline, à 3 mois et à 6 mois. Deux outcomes différents ont été utilisés : a) le déclin fonctionnel défini comme le décès ou une diminution des capacités fonctionnelles au suivi, b) le status fonctionnel mesuré par une échelle standardisée. Résultats : à la fin du suivi, la mortalité était de 14.6%, similaire pour les résidents avec et sans infection (16.2% versus 13.1%, P .11). Durant les 2 périodes de suivi de 3 mois, les sujets ayant présenté une ou plusieurs infections avaient des odds de déclin fonctionnel plus élevés, y compris après ajustement pour les caractéristiques démographiques, médicales et fonctionnelles du baseline, ainsi que la survenue de nouvelles maladies (odds ratio ajustés (OR) = 1.6, intervalle de confiance à 95% (IC) = 1.2-2.2, P = .002 et OR = 1.5, 95% IC= 1.1-2.0, P= .008, respectivement). Comparés aux résidents non infectés, les odds de déclin fonctionnel augmentaient significativement et graduellement chez ceux ayant eu une, respectivement 2 infections ou plus. L'analyse prédisant le score fonctionnel (restreinte aux sujets ayant survécu) a donné des résultats similaires. Finalement, une analyse de survie prédisant le temps jusqu'à la première infection a confirmé une augmentation progressive de la probabilité d'infection chez les sujets avec dépendance fonctionnelle modérée, respectivement sévère, comparés aux sujets indépendants à la ligne de base. Conclusion : chez les résidents de long séjour, les infections sont à la fois cause et conséquence de la dépendance fonctionnelle. Des études futures devraient être entreprises pour investiguer si des programmes de prévention des infections peuvent également contribuer à prévenir le déclin fonctionnel, un facteur important pour la qualité de vie de ces résidents. ABSTRACT: Objectives: To determine the relationship between infections and functional impairment in nursing home residents. Design: Prospective cohort study (follow-up period, 6 months). Setting: Thirty-nine nursing homes in western Switzerland. Participants: A total of 1,324 residents aged 65 and older (mean age 85.7; 76.6% female) who agreed to participate, or their proxies, by oral informed consent. Measurements: Functional status measured every 3 months. Two different outcomes were used: (a) functional decline defined as death or decreased function at follow-up and (b) functional status score using a standardized measure. Results: At the end of follow-up, mortality was 14.6%, not different for those with and without infection (16.2% vs 13.1%, P= .11) During both 3-month periods, subjects with infection had higher odds of functional decline, even after adjustment for baseline characteristics and occurrence of a new illness (adjusted odds ratio (AOR) = 1.6, 95% confidence interval (CI) = 1.2-2.2, P = .002, and AOR 1.5, 95% CI 1.1-2.0, P .008, respectively). The odds of decline increased in a stepwise fashion in patients with zero, one, and two or more infections. The analyses predicting functional status score (restricted to subjects who survived) gave similar results. A survival analysis predicting time to first infection confirmed a stepwise greater likelihood of infection in subjects -with moderate and severe impairment at baseline than in subjects with no or mild functional impairment at baseline. Conclusion: Infections appear to be both a cause and a consequence of functional impairment in nursing home residents. Further studies should be undertaken to investigate whether effective infection control programs can also contribute to preventing functional decline, an important component of these residents' quality of life.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
RÉSUMÉ: Le génome de toute cellule est susceptible d'être attaqué par des agents endogènes et exogènes. Afin de préserver l'intégrité génomique, les cellules ont développé des multitudes de mécanismes. La réplication de l'ADN, une étape importante durant le cycle cellulaire, constitue un stress et présente un danger important pour l'intégrité du génome. L'anémie de Fanconi est une maladie héréditaire rare dont les protéines impliquées semblent jouer un rôle crucial dans la réponse au stress réplicatif. La maladie est associée à une instabilité chromosomique ainsi qu'à une forte probabilité de développer des cancers. Les cellules des patients souffrant de l'anémie de Fanconi sont sensibles à des agents interférant avec la réplication de l'ADN, et plus particulièrement àdes agents qui fient les deux brins d'ADN d'une manière covalente. L'anémie de Fanconi est une maladie génétiquement hétérogène. Treize protéines ont pu être identifiées. Elles semblent figurer dans une même voie de signalisation qui est aussi connue sous le nom de « FA/BRCA pathway », car un des gènes est identique au gène BRCA2 (breast cancer susceptibility gene 2). Huit protéines forment un complexe nucléaire dont l'intégrité est nécessaire à la monoubiquitination de deux autres protéines, FANCD2 et FANCI, en réponse à un stress réplicatif. A ce jour, la fonction moléculaire des protéines du « FA/BRCA pathway »reste encore mal décrite. Au début de mon travail de thèse, nous avons donc décidé de purifier les protéines du complexe nucléaire et d'étudier leurs propriétés biochimiques. Nous avons tout d'abord étudié les cinq protéines connues à l'époque qui sont FANCA, FANCC, FANCE, FANCF et FANCG. Par la suite, nous avons étendu notre étude à des protéines découvertes plus récemment, FANCL, FANCM et FAAP24, en concentrant finalement notre travail sur la caractérisation de FANCM. FANCM, contrairement aux autres protéines du complexe, est constituée de deux domaines conservés suggérant un rôle important dans le métabolisme de l'ADN. Il s'agit d'un domaine « DEAH box hélicase »situé dans la partie N-terminale et d'un domaine « ERCC4 nuclease »situé dans la partie C-terminale de la protéine. Dans cette étude, nous avons purifié avec succès la protéine FANCM entière à partir d'un système hétérologue. Nous montrons que FANCM s'attache de manière spécifique à des jonctions de Holliday et des fourches de réplication. De plus, nous démontrons que FANCM peut déplacer le point de jonction de ces structures via son domaine hélicase de manière dépendante de l'ATP. FANCM est aussi capable de dissocier de grands intermédiaires de la recombinaison, via la migration de jonctions de Holliday à travers une région d'homologie de 2.6 kb. Tous ces résultats suggèrent que FANCM peut s'attacher spécifiquement à des fourches de réplication et à des jonctions de Holliday in vitro et que son domaine hélicase est associé à une activité migratoire efficace. Nous pensons que FANCM peut avoir un rôle direct sur les intermédiaires de réplication. Ceci est en accord avec l'idée que les protéines de l'anémie de Fanconi coordonnent la réparation de l'ADN au niveau des fourches de réplication arrêtées. Nos résultats donnent une première indication quant au rôle de FANCM dans la cellule et peuvent contribuer à élucider la fonction de cette voie de signalisation peu comprise jusqu'à présent. SUMMARY: The genome of every cell is subject to a constant offence by endogenous and exogenous agents. Not surprisingly; cells have evolved a multitude of mechanisms which aim at preserving genomic integrity. A key step during the life cycle of a cell, DNA replication itself, constitutes a special danger to the integrity of the genome. The proteins defective in the rare hereditary disease Fanconi anemia (FA) are suspected to play a crucial role in the cellular response to DNA replication stress. The disease is associated with chromosomal instability and pronounced cancer susceptibility. Cells from Fanconi anemia patients are sensitive to a variety of agents which interfere with DNA replication, DNA interstrand cross-linking agents being particularly threatening to their survival. Fanconi anemia is a genetically heterogeneous disease with 13 different proteins identified, which seem to work together in a common pathway. Since one of the FA genes is identical to the breast cancer susceptibility gene BRCA2, it is also referred to as the FA/BRCA pathway. Eight proteins form a nuclear complex, whose integriry is required for the monoubiquitination of two other FA proteins, FANCD2 and FANCI, in response to DNA replication stress. Despite intensive research, the function of the FA/BRCA pathway at a molecular level has remained largely elusive so far. At the beginning of my thesis, we therefore decided to purify the proteins of the FA core complex and to investigate their biochemical properties. We started with the five proteins which were known at that time, FANCA, FANCC, FANCE, FANCF, and FACG. Later on, we extended our studies to the newly discovered proteins FANCL, FANCM, and FAAP24, and eventually focused our work on the characterisation of FANCM. In contrast to the other core complex proteins, FANCM contains two conserved domains, which point to a role in DNA metabolism: an N-terminal DEAH box helicase domain and a C-terminal ERCC4 nuclease domain. In this study, we have successfully purified full-length FANCM from a recombinant source. We show that purified FANCM binds to branched DNA molecules, such as Holliday junctions and replication forks, with high specificity and affinity. In addition, we demonstrate that FANCM can translocate the junction point of branched DNA molecules due to its helicase domain in an ATPase-dependent manner. FANCM can even dissociate large recombination intermediates, via branch migration of Holliday junctions through a 2.6 kb region of homology. Taken together, our data suggest that FANCM can specifically bind to replication forks and Holliday junctions in vitro, and that its DEAH box helicase domain is associated with a potent branch migration activity. We propose that FANCM might have a direct role in the processing of DNA replication intermediates. This is consistent with the current view that FA proteins coordinate DNA repair at stalled replication forks. Our findings provide a first hint as to the context in which FANCM might play a role in the cell. We are optimistic that they might be key to further elucidate the function of a pathway which is far from being understood.
Resumo:
Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Risk theory has been a very active research area over the last decades. The main objectives of the theory are to find adequate stochastic processes which can model the surplus of a (non-life) insurance company and to analyze the risk related quantities such as ruin time, ruin probability, expected discounted penalty function and expected discounted dividend/tax payments. The study of these ruin related quantities provides crucial information for actuaries and decision makers. This thesis consists of the study of four different insurance risk models which are essentially related. The ruin and related quantities are investigated by using different techniques, resulting in explicit or asymptotic expressions for the ruin time, the ruin probability, the expected discounted penalty function and the expected discounted tax payments. - La recherche en théorie du risque a été très dynamique au cours des dernières décennies. D'un point de vue théorique, les principaux objectifs sont de trouver des processus stochastiques adéquats permettant de modéliser le surplus d'une compagnie d'assurance non vie et d'analyser les mesures de risque, notamment le temps de ruine, la probabilité de ruine, l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes. L'étude de ces mesures associées à la ruine fournit des informations cruciales pour les actuaires et les décideurs. Cette thèse consiste en l'étude des quatre différents modèles de risque d'assurance qui sont essentiellement liés. La ruine et les mesures qui y sont associées sont examinées à l'aide de différentes techniques, ce qui permet d'induire des expressions explicites ou asymptotiques du temps de ruine, de la probabilité de ruine, de l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes.
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Abstract The amygdala is a group of nuclei in the temporal lobe of the brain that plays a crucial role in anxiety and fear behavior. Sensory information converges in the basolateral and lateral nuclei of the amygdala, which have been the first regions in the brain where the acquisition of new (fear) memories has been associated with long term changes in synaptic transmission. These nuclei, in turn, project to the central nucleus of the amygdala. The central amygdala, through its extensive projections to numerous nuclei in the midbrain and brainstem, plays a pivotal role in the orchestration of the rapid autonomic and endocrine fear responses. In the central amygdala a large number of neuropeptides and receptors is expressed, among which high levels of vasopressin and oxytocin receptors. Local injections of these peptides into the amygdala modulate several aspects of the autonomic fear reaction. Interestingly, their effects are opposing: vasopressin tends to enhance the fear reactions, whereas oxytocin has anxiolytic effects. In order to investigate the neurophysiological mechanisms that could underlie this opposing modulation of the fear behavior, we studied the effects of vasopressin and oxytocin on the neuronal activity in an acute brain slice preparation of the rat central amygdala. We first assessed the effects of vasopressin and oxytocin on the spontaneous activity of central amygdala neurons. Extracellular single unit recordings revealed two major populations of neurons: a majority of neurons was excited by vasopressin and inhibited by oxytocin, whereas other neurons were only excited by oxytocin receptor activation. The inhibitory effect of oxytocin could be reduced by the block of GABAergic transmission, whereas the excitatory effects of vasopressin and oxytocin were not affected. In a second step we identified the cellular mechanisms for the excitatory effects of both peptides as well as the morphological and biochemical mechanisms underlying the opposing effects, by using sharp electrode recordings together with intracellular labelings. We revealed that oxytocin-excited neurons are localized in the lateral part (CeL) whereas vasopressin excited cells are found in the medial part of the central amygdala (CeM). The tracing of the neuronal morphology showed that the axon collaterals of the oxytocin-excited neurons project from the CeL, far into the CeM. Combined immunohistochemical stainings indicated that these projections are GABAergic. In the third set of experiments we investigated the synaptic interactions between the two identified cell populations. Whole-cell patch-clamp recordings in the CeM revealed that the inhibitory effect of oxytocin was caused by the massive increase of inhibitory GABAergic currents, which was induced by the activation of CeL neurons. Finally, the effects of vasopressin and oxytocin on evoked activity were investigated. We found on the one hand, that the probability of evoking action potentials in the CeM by stimulating the basolateral amygdala afferents was enhanced under vasopressin, whereas it decreased under oxytocin. On the other hand, the impact of cortical afferents stimulation on the CeL neurons was enhanced by oxytocin application. Taken together, these findings have allowed us to develop a model, in which the opposing behavioral effects of vasopressin and oxytocin are caused by a selective activation of two distinct populations of neurons in the GABAergic network of the central amygdala. Our model could help to develop new anxiolytic treatments, which modulate simultaneously both receptor systems. By acting on a GABAergic network, such treatments can further be tuned by combinations with classical benzodiazepines. Résumé: L'amygdale est un groupe de noyaux cérébraux localisés dans le lobe temporal. Elle joue un rôle essentiel dans les comportements liés à la peur et l'anxiété. L'information issue des aires sensorielles converge vers les noyaux amygdaliens latéraux et basolatéraux, qui sont les projections vers différents noyaux du tronc cérébral et de l'hypothalamus, joue un rôle clef premières régions dans lesquelles il a été démontré que l'acquisition d'une nouvelle mémoire (de peur) était associée à des changements à long terme de la transmission synaptique. Ces noyaux envoient leurs projections sur l'amygdale centrale, qui à travers ses propres dans l'orchestration des réponses autonomes et endocrines de peur. Le contrôle de l'activité neuronale dans l'amygdale centrale module fortement la réaction de peur. Ainsi, un grand nombre de neuropeptides sont spécifiquement exprimés dans l'amygdale centrale et un bon nombre d'entre eux interfère dans la réaction de peur et d'anxiété. Chez les rats, une forte concentration de récepteurs à l'ocytocine et à la vasopressine est exprimée dans le noyau central, et l'injection de ces peptides dans l'amygdale influence différents aspects de la réaction viscérale associée à la peur. Il est intéressant de constater que ces peptides exercent des effets opposés. Ainsi, la vasopressine augmente la réaction de peur alors que l'ocytocine a un effet anxiolytique. Afin d'investiguer les mécanismes neurophysiologiques responsables de ces effets opposés, nous avons étudié l'effet de la vasopressine et de l'ocytocine sur l'activité neuronale de préparations de tranches de cerveau de rats contenant entre autres de l'amygdale centrale. Tout d'abord, notre intérêt s'est porté sur les effets de ces deux neuropeptides sur l'activité spontanée dans l'amygdale centrale. Des enregistrements extracellulaires ont révélé différentes populations de neurones ; une majorité était excitée par la vasopressine et inhibée par l'ocytocine ; d'autres étaient seulement excités par l'activation du récepteur à l'ocytocine. L'effet inhibiteur de l'ocytocine a pu être réduit par l'inhibition de la transmission GABAergique, alors que ses effets excitateurs n'étaient pas affectés. Dans un deuxième temps, nous avons identifié les mécanismes cellulaires responsables de l'effet excitateur de ces deux peptides et analysé les caractéristiques morphologiques et biochimiques des neurones affectés. Des enregistrements intracellulaires ont permis de localiser les neurones excités par l'ocytocine dans la partie latérale de l'amygdale centrale (CeL), et ceux excités par la vasopressine dans sa partie médiale (CeM). Le traçage morphologique des neurones a révélé que les collatérales axonales des cellules excitées par l'ocytocine projetaient du CeL loin dans le CeM. De plus, des colorations immuno-histochimiques ont révélé que ces projections étaient GABAergiques. Dans un troisième temps, nous avons étudié les interactions synaptiques entre ces deux populations de cellules. Les enregistrements en whole-cell patch-clamp dans le CeM ont démontré que les effets inhibiteurs de l'ocytocine résultaient de l'augmentation massive des courants GABAergique résultant de l'activation des neurones dans le CeL. Finalement, les effets de l'ocytocine et de la vasopressine sur l'activité évoquée ont été étudiés. Nous avons pu montrer que la probabilité d'évoquer un potentiel d'action dans le CeM, par stimulation de l'amygdale basolatérale, était augmentée sous l'effet de la vasopressine et diminuée sous l'action de l'ocytocine. Par contre, l'impact de la stimulation des afférences corticales sur les neurones du CeL était augmenté par l'application de l'ocytocine. L'ensemble de ces résultats nous a permis de développer un modèle dans lequel les effets comportementaux opposés de la vasopressine et de l'ocytocine sont causés par une activation sélective des deux différentes populations de neurones dans un réseau GABAergique. Un tel modèle pourrait mener au développement de nouveaux traitements anxiolytiques en modulant l'activité des deux récepteurs simultanément. En agissant sur un réseau GABAergique, les effets d'un tel traitement pourraient être rendus encore plus sélectifs en association avec des benzodiazépines classiques.