286 resultados para équations structurelles
Resumo:
Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.
Resumo:
RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.
Resumo:
The functional consequences of structural variation in the human genome range from adaptation, to phenotypic variation, to predisposition to diseases. Copy number variation (CNV) was shown to influence the phenotype by modifying, in a somewhat dose-dependent manner, the expression of genes that map within them, as well as that of genes located on their flanks. To assess the possible mechanism(s) behind this neighboring effect, we compared histone modification status of cell lines from patients affected by Williams-Beuren, Williams-Beuren region duplication, Smith-Magenis or DiGeorge Syndrome and control individuals using a high-throughput version of chromatin immuno-precipitation method (ChIP), called ChlP-seq. We monitored monomethylation of lysine K20 on histone H4 and trimethylation of lysine K27 on histone H3, as proxies for open and condensed chromatin, respectively. Consistent with the changes in expression levels observed for multiple genes mapping on the entire length of chromosomes affected by structural variants, we also detected regions with modified histone status between samples, up- and downstream from the critical regions, up to the end of the rearranged chromosome. We also gauged the intrachromosomal interactions of these cell lines utilizing chromosome conformation capture (4C-seq) technique. We observed that a set of genes flanking the Williams-Beuren Syndrome critical region (WBSCR) were often looping together, possibly forming an interacting cluster with each other and the WBSCR. Deletion of the WBSCR disrupts the expression of this group of flanking genes, as well as long-range interactions between them and the rearranged interval. We conclude, that large genomic rearrangements can lead to changes in the state of the chromatin spreading far away from the critical region, thus possibly affecting expression globally and as a result modifying the phenotype of the patients. - Les conséquences fonctionnelles des variations structurelles dans le génome humain sont vastes, allant de l'adaptation, en passant par les variations phénotypiques, aux prédispositions à certaines maladies. Il a été démontré que les variations du nombre de copies (CNV) influencent le phénotype en modifiant, d'une manière plus ou moins dose-dépendante, l'expression des gènes se situant à l'intérieur de ces régions, mais également celle des gènes se trouvant dans les régions flanquantes. Afin d'étudier les mécanismes possibles sous-jacents à cet effet de voisinage, nous avons comparé les états de modification des histones dans des lignées cellulaires dérivées de patients atteints du syndrome de Williams-Beuren, de la duplication de la région Williams-Beuren, du syndrome de Smith-Magenis ou du syndrome de Di- George et d'individus contrôles en utilisant une version haut-débit de la méthode d'immunoprécipitation de la chromatine (ChIP), appelée ChIP-seq. Nous avons suivi la mono-méthylation de la lysine K20 sur l'histone H4 et la tri-méthylation de la lysine K27 sur l'histone H3, marqueurs respectifs de la chromatine ouverte et fermée. En accord avec les changements de niveaux d'expression observés pour de multiples gènes tout le long des chromosomes affectés par les CNVs, nous avons aussi détecté des régions présentant des modifications d'histones entre les échantillons, situées de part et d'autre des régions critiques, jusqu'aux extrémités du chromosome réarrangé. Nous avons aussi évalué les interactions intra-chromosomiques ayant lieu dans ces cellules par l'utilisation de la technique de capture de conformation des chromosomes (4C-seq). Nous avons observé qu'un groupe de gènes flanquants la région critique du syndrome de Williams-Beuren (WBSCR) forment souvent une boucle, constituant un groupe d'interactions privilégiées entre ces gènes et la WBSCR. La délétion de la WBSCR perturbe l'expression de ce groupe de gènes flanquants, mais également les interactions à grande échelle entre eux et la région réarrangée. Nous en concluons que les larges réarrangements génomiques peuvent aboutir à des changements de l'état de la chromatine pouvant s'étendre bien plus loin que la région critique, affectant donc potentiellement l'expression de manière globale et ainsi modifiant le phénotype des patients.
Resumo:
L'enquête 'European School Survey Project on Alcohol and other Drugs' (ESPAD) est menée tous les quatre ans dans de nombreux pays européens auprès d'écolières et d'écoliers âgés de 15 ans, un âge important en matière de prévention. La dernière vague de l'enquête a été réalisée en 2003; il s'agissait de la première participation de la Suisse à l'enquête. Un peu moins de 7000 élèves des 8e, 9e et 10e années scolaires ont participé au volet suisse de l'enquête. Les résultats montrent notamment que 21.1% des adolescente- s de 15 ans fument quotidiennement, la part des fumeurs quotidiens passant de 8.5% chez les 13 ans à 23.2% chez les 16 ans. Plus de 50% des adolescent-e-s de 13 ans ont consommé de l'alcool durant les 30 jours précédant l'enquête. Chez les 15 ans, pour lesquels l'achat d'alcool est d'ailleurs aussi interdit par la loi, cette proportion passe à 75%. L'enquête 2003 montre en outre qu'environ 20% des adolescent-e-s de 13 ans ont consommé au moins une fois du cannabis dans leur vie et que près de la moitié des 16 ans sont dans le même cas. La prévalence au cours des 12 derniers mois est à peine inférieure. En matière de prévention de la consommation de substances psychotropes chez les jeunes, les mesures structurelles devraient être renforcées, tout comme la limitation de l'accessibilité des produits, en contrôlant par exemple la vente d'alcool aux plus jeunes. Des programmes éducatifs et des campagnes médiatiques peuvent également exercer une certaine influence, pour autant qu'ils s'intègrent à une politique cohérente en matière de drogues.
Resumo:
Summary Forests are key ecosystems of the earth and associated with a large range of functions. Many of these functions are beneficial to humans and are referred to as ecosystem services. Sustainable development requires that all relevant ecosystem services are quantified, managed and monitored equally. Natural resource management therefore targets the services associated with ecosystems. The main hypothesis of this thesis is that the spatial and temporal domains of relevant services do not correspond to a discrete forest ecosystem. As a consequence, the services are not quantified, managed and monitored in an equal and sustainable manner. The thesis aims were therefore to test this hypothesis, establish an improved conceptual approach and provide spatial applications for the relevant land cover and structure variables. The study was carried out in western Switzerland and based primarily on data from a countrywide landscape inventory. This inventory is part of the third Swiss national forest inventory and assesses continuous landscape variables based on a regular sampling of true colour aerial imagery. In addition, land cover variables were derived from Landsat 5 TM passive sensor data and land structure variables from active sensor data from a small footprint laserscanning system. The results confirmed the main hypothesis, as relevant services did not scale well with the forest ecosystem. Instead, a new conceptual approach for sustainable management of natural resources was described. This concept quantifies the services as a continuous function of the landscape, rather than a discrete function of the forest ecosystem. The explanatory landscape variables are therefore called continuous fields and the forest becomes a dependent and function-driven management unit. Continuous field mapping methods were established for land cover and structure variables. In conclusion, the discrete forest ecosystem is an adequate planning and management unit. However, monitoring the state of and trends in sustainability of services requires them to be quantified as a continuous function of the landscape. Sustainable natural resource management iteratively combines the ecosystem and gradient approaches. Résumé Les forêts sont des écosystèmes-clés de la terre et on leur attribue un grand nombre de fonctions. Beaucoup de ces fonctions sont bénéfiques pour l'homme et sont nommées services écosystémiques. Le développement durable exige que ces services écosystémiques soient tous quantifiés, gérés et surveillés de façon égale. La gestion des ressources naturelles a donc pour cible les services attribués aux écosystèmes. L'hypothèse principale de cette thèse est que les domaines spatiaux et temporels des services attribués à la forêt ne correspondent pas à un écosystème discret. Par conséquent, les services ne sont pas quantifiés, aménagés et surveillés d'une manière équivalente et durable. Les buts de la thèse étaient de tester cette hypothèse, d'établir une nouvelle approche conceptuelle de la gestion des ressources naturelles et de préparer des applications spatiales pour les variables paysagères et structurelles appropriées. L'étude a été menée en Suisse occidentale principalement sur la base d'un inventaire de paysage à l'échelon national. Cet inventaire fait partie du troisième inventaire forestier national suisse et mesure de façon continue des variables paysagères sur la base d'un échantillonnage régulier sur des photos aériennes couleur. En outre, des variables de couverture ? terrestre ont été dérivées des données d'un senseur passif Landsat 5 TM, ainsi que des variables structurelles, dérivées du laserscanning, un senseur actif. Les résultats confirment l'hypothèse principale, car l'échelle des services ne correspond pas à celle de l'écosystème forestier. Au lieu de cela, une nouvelle approche a été élaborée pour la gestion durable des ressources naturelles. Ce concept représente les services comme une fonction continue du paysage, plutôt qu'une fonction discrète de l'écosystème forestier. En conséquence, les variables explicatives de paysage sont dénommées continuous fields et la forêt devient une entité dépendante, définie par la fonction principale du paysage. Des méthodes correspondantes pour la couverture terrestre et la structure ont été élaborées. En conclusion, l'écosystème forestier discret est une unité adéquate pour la planification et la gestion. En revanche, la surveillance de la durabilité de l'état et de son évolution exige que les services soient quantifiés comme fonction continue du paysage. La gestion durable des ressources naturelles joint donc l'approche écosystémique avec celle du gradient de manière itérative.
Resumo:
Abstract: The genesis of the cardiac action potential, which accounts for the cardiac contraction, is due to the sodium current INa mediated by the voltage-gated sodium channel Nav1.5. Several cardiac arrhythmias such as the Brugada syndrome are known te be caused by mutations in SCN5A, the gene encoding Nav1.5. Studies of these mutations allowed a better understanding of biophysical and functional properties of Nav1.5. However, only few investigations have been performed in order to understand the regulation of Nav1.5. During my thesis, I investigated different mechanisms of regulation of Nav1.5 using a heterologous expression system, HEK293 cells, coupled with a technique of sodium current recording: the patch clamp in whole cell configuration. In previous studies it has been shown that an enzyme of the Nedd4 family (Nedd4-2) regulates an epithelial sodium channel via the interaction with PY-motifs present in the latter. Interestingly, Nav1.5 contains a similar PY-motif, which motivated us to study the role of Nedd4-2 expressed in heart for the regulation of Nav1.5. In a second study, we investigated the implication of two Nav1.5 mutants, which were either less functional or net functional (Nav1.5 R535X and Nav1.5 L325R respectively) implied in the genesis of the Brugada syndrome by fever. Our results established two mechanisms implied in Nav1.5 regulation. The first one implies that following the interaction between the PY-motif of Nav1.5 and Nedd4- 2 Nav1.5 is ubiquitinated by Nedd4-2. This ubiquitination leads to the internalization of Nav1 .5. The second mechanism is a phenomenon called the "dominant negative" effect of Nav1.5 L325R on Nay1.5 where the decrease of 'Na is potentially due to the retention of Nav1.5 by Nav1.5 L325R in an undefined intracellular compartment. These studies defined two mechanisms of Nav1.5 regulation, which could play an important role for the genesis of cardiac arrhythmias where molecular processes are still poorly understood. Résumé La genèse du potentiel d'action cardiaque, permettant la contraction cardiaque, est due au courant sodique INa issu des canaux sodiques cardiaques dépendants du voltage Nav1.5. Nombreuses arythmies cardiaques telles que le syndrome de Brugada sont connues pour être liées à des mutations du gène SCN5A, codant pour Nav1.5. L'étude de ces mutations a permis une meilleure compréhension des propriétés structurelles et fonctionnelles de Nav1.5 et leurs implications dans la genèse de ces pathologies. Néanmoins peu d'études ont été menées afin de comprendre les mécanismes de régulation de Nav1.5. Mon travail de thèse a consisté à étudier des mécanismes de régulation de Nav1.5 en utilisant un système d'expression hétérologue, les cellules HEK293, couplé à une technique d'enregistrement des courants sodiques, le "patch clamp" en configuration cellule entière. La présence sur Nav1.5 d'un motif-PY similaire à ceux nécessaires pour la régulation d'un canal épithélial sodique par une enzyme de la famille de Nedd4, nous a amenée à étudier le rôle de ces ubiquitine-ligases, en particulier Nedd4-2, dans la régulation de Nav1.5. La seconde étude s'est intéressée aux conséquences de deux mutations de SCN5A codant pour deux mutants peu ou pas fonctionnels (Nav1.5 L325R et Nav1.5 R535X respectivement) retrouvées chez des patients présentant un syndrome de Brugada exacerbé par un état fébrile. Nos résultats ont permis d'établir deux mécanismes de régulation de Nav1.5 L'un par Nedd4-2 qui implique rubiquitination de Nav1.5 par cette ligase suite à l'interaction entre le motif-PY de Nav1.5 et Nedd4-2. Cette modification déclenche l'internalisation du canal impliquée dans la diminution d'INa. Le second mécanisme quant à lui est un effet "dominant négatif" de Nav1.5 L325R sur Nav1.5 aboutissant à une diminution d'INa suite à la séquestration intracellulaire potentielle de Nav1.5 par Nav1.5 L325R. Ces études ont mis en évidence deux mécanismes de régulation de Nav1.5 pouvant jouer un rôle majeur dans la genèse et/ou l'accentuation des arythmies cardiaques dont les processus moléculaires au sein des cardiomyocytes, impliquant des modifications du courant sodiques, sont encore mal compris. Résumé destiné à un large public La dépolarisation électrique de la membrane des cellules cardiaques permet la contraction du coeur. La génèse de cette activité électrique est due au courant sodique issu d'un type de canal à sodium situé dans la membrane des cellules cardiaques. De nombreuses pathologies provoquant des troubles du rythme cardiaque sont issues de mutations du gène qui code pour ce canal à sodium. Ces canaux mutants, entrainant diverses pathologies cardiaques telles que le syndrome de Brugada, ont été largement étudiées. Néanmoins, peu de travaux ont été réalisés sur les mécanismes de régulation de ce canal à sodium non muté. Mon travail de thèse a consisté à étudier certains des mécanismes de régulation de ce canal à sodium en utilisant une technique permettant l'enregistrement des courants sodiques issus de l'expression de ces canaux à sodium à la membrane de cellules mammifères. La présence sur ce canal à sodium d'une structure spécifique, similaire à celle nécessaire pour la régulation d'un canal épithélial à sodium par une enzyme appelée Nedd4-2, nous a amenée à étudier le rôle de cette enzyme dans la régulation de ce canal à sodium. La seconde étude s'est intéressée aux rôles de deux mutations du gène codant pour ce canal à sodium retrouvées chez des patients présentant un syndrome de Brugada exacerbé par la fièvre. Nos résultats nous ont permis d'établir deux mécanismes de régulation de ce canal à sodium diminuant le courant sodique l'un par l'action de l'enzyme Nedd4-2, suite à son interaction avec ce canal, qui modifie ce canal à sodium (ubiquitination) diminuant de ce fait la densité membranaire du canal. L'autre par un mécanisme suggérant un effet négatif de l'un des canaux mutants sur l'expression à la membrane du canal à sodium non muté. Ces études ont mis en évidence deux mécanismes de régulation de ce canal à sodium pouvant jouer un rôle majeur dans la genèse et/ou l'accentuation des troubles du rythme cardiaques dont les mécanismes cellulaires sont encore incompris.
Resumo:
ABSTRACTThe Online Mendelian Inheritance in Man database (OMIM) reports about 3000 Mendelian diseases of known causal gene and about 2000 that remain to be mapped. These cases are often difficult to solve because of the rareness of the disease, the structure of the family (too big or too small) or the heterogeneity of the phenotype. The goal of this thesis is to explore the current genetic tools, before the advent of ultra high throughput sequencing, and integrate them in the attempt to map the genes behind the four studied cases. In this framework we have studied a small family with a recessive disease, a modifier gene for the penetrance of a dominant mutation, a large extended family with a cardiac phenotype and clinical and/or allelic heterogeneity and we have molecularly analyzed a balanced chromosomal translocation.RESUMELa base de données des maladies à transmission mendélienne, Online Mendelian Inheritance in Man (OMIM), contient environ 3000 affections à caractère mendélien pour lesquelles le gène responsable est connu et environ 2000 qui restent à élucider.Les cas restant à résoudre sont souvent difficiles soit par le caractère intrinsèquement rare de ces maladies soit à cause de difficultés structurelles (famille trop petite ou trop étendue) ou hétérogénéité du phénotype ou génétique. Cette thèse s'inscrit avant l'arrivée des nouveaux outils de séquençage à haut débit. Son but est d'explorer les outils génétiques actuels, et de les intégrer pour trouver les gènes impliqués dans quatre cas représentant chacun une situation génétique différente : nous avons étudié une famille de quatre individus avec une transmission récessive, recherché un gène modificateur de la pénétrance de mutations dominantes, étudié une famille étendue présentant un phénotype cardiaque cliniquement et/ou allèliquement hétérogène et nous avons fait l'analyse moléculaire d'une translocation chromosomique balancée.
Resumo:
La station touristique représente un espace urbain consacré principalement au tourisme, tout en comprenant également une population résidente permanente. Du point de vue de la gestion des réseaux urbains de l'eau, cette caractéristique induit pour ce type de lieu des usages propres à tout espace urbain mais également des spécificités liées à la forte fluctuation saisonnière de la population résidente ou encore à la présence d'usages particuliers tels que l'irrigation des golfs, la production de neige artificielle ou le thermalisme. Dès lors, la planification de l'approvisionnement est délicate et peu prévisible. Ces difficultés sont renforcées par le fait que les concentrations temporelles de la demande coïncident généralement avec des périodes de stress hydrique notable. Dans le cas de stations balnéaires, les pics de fréquentation interviennent en général durant l'été lorsque la ressource en eau est peu disponible. Le problème est similaire dans les stations touristiques de montagne où l'eau est généralement indisponible car stockée sous forme de neige durant les mois de forte fréquentation. De plus, ces difficultés sont souvent renforcées par la localisation géographique des stations touristiques, fréquemment situées dans des espaces sensibles du point de vue de la ressource en eau, avec des situations de pénuries temporelles, voire structurelles. Ces problématiques propres à la plupart des stations touristiques mènent souvent à de fortes rivalités entre, d'une part, les différents usages touristiques de la ressource, et d'autre part, les usages autochtones et touristiques. Les particularités liées au tourisme tendent ainsi à renforcer les rivalités entre différents types de secteurs d'activité (approvisionnement en eau potable, tourisme, hydroélectricité, enneigement artificiel, irrigation, etc.). Ces différents usages de la ressource mis en concurrence nécessitent dès lors la mise en oeuvre de réglementations structurées à travers des politiques publiques ainsi que des droits de propriété et selon des composantes nationales, régionales et locales ; soit un cadre institutionnel que nous proposons d'appeler Régime Institutionnel de Ressource (RIR) (Knoepfel et al. 2001, 2007). A travers cette thèse de doctorat, nous répondons à différentes questions de recherche. Nous tentons d'abord de comprendre comment ces différents RIR sont-ils mis en oeuvre dans le cadre d'espaces touristiques ? Comment ceux-ci sont-ils concrétisés par les acteurs et quels sont leurs effets en termes de durabilité technique, environnementale, sociale et économique des réseaux urbains de l'eau ? Nous questionnons ensuite les effets du tourisme sur la gestion des infrastructures de réseau à l'échelle de la station touristique et de son bassin versant et nous interrogeons sur les effets du tourisme en termes de gestion des eaux urbaines. Nous portons notre attention sur deux stations touristiques situées dans deux contextes institutionnels différents (Crans-Montana en Suisse et Morzine-Avoriaz en France) et y étudions trois types de régimes institutionnels en particulier : la régie directe (gestion publique), l'affermage (gestion déléguée) et la gestion privée des infrastructures. Les résultats de cette thèse de doctorat indiquent tout d'abord dans quelle mesure le tourisme modifie de façon significative la perception et les modalités de gestion de la ressource en eau et des infrastructures. Ils montrent ensuite que l'espace fonctionnel de la gestion de ces infrastructures correspond rarement aux limites du réseau hydrographique naturel et quelles en sont les implications en termes de durabilité. Enfin, la comparaison de différents régimes institutionnels révèle les forces et les faiblesses de chaque modèle de gestion dans le cas spécifique des stations touristiques et également les différentes solutions adoptées localement pour la mise en oeuvre d'un arrangement institutionnel permettant un usage plus ou moins durable des infrastructures de réseau et du réseau hydrographique naturel. - Tourism resort represents an urban area mainly dedicated to tourism while including at the same time a permanent residential population. From the point of view of urban water networks, this characteristic induces a strong seasonal fluctuation of residential population and involves special water uses such as golf irrigation, production of artificial snow or functioning of thermal baths. Therefore, water supply planning can be tricky and difficult to predict. These difficulties are reinforced by the fact that temporary concentrations of water demand coïncidé generally with periods of water stress. In the case of seaside resorts, frequenting peaks arise in general during summer when water resource is less available. The problem is similar in mountainous tourist resorts where water is generally unavailable as it is stored as snow during months of highest frequenting. Furthermore, these difficulties are often reinforced by resorts' geographical localisations, which are often situated in sensitive areas in terms of temporary or structural water shortages. These problematic issues often lead to strong rivalries between tourists' water uses on the one hand, and between locals and tourists uses on the other hand. Thus, features of tourism tend to reinforce rivalries between different sectors of activity (supply of drinking water, tourism, hydroelectricity, artificial snow, irrigation, etc.). These different and competing water uses need the implementation of rules structured through public policies and property rights and through national, regional and local legal components; We propose to call this framework as an Institutional Resource Regime (IRR) (Knoepfel et al. 2001, 2007, 2009). Through this PhD thesis, we answer different research questions. We firstly aim to understand how those different IRR are implemented within tourism spaces? How do actors materialize them and what are their effects in term of technical, environmental, social and economical sustainability of urban water networks? We then, investigate effects of tourism on water networks infrastructures' management at the scale of the tourist resort and its river basin. We focus our attention on two tourist resorts situated within two different institutional contexts (Crans-Montana, Switzerland and Morzine-Avoriaz, France) and study three types of institutional regime in particular: public, delegated and private management of infrastructures. Results of this PhD thesis indicate firstly how tourism modifies in a significant way the perception and management modalities of water resource and infrastructures. Results also show that functional space of infrastructures management rarely matches with the limits of the natural river basin and indicates what it means in terms of sustainability. Finally, the comparison of different institutional regimes reveals the strengths and weakness of each management model in the specific case of tourist resorts and shows the different solutions in locally implementing an institutional arrangement for a more or less sustainable management of network infrastructures and natural water system.
Resumo:
Présentation du plan La présente recherche se divise en cinq chapitres, plus l'introduction et la conclusion. Chaque chapitre s'ouvre par quelques mots de présentation dévoilant son contenu et expliquant son objectif, ainsi que la méthode adoptée. C'est pourquoi je ne ferai ici que d'exposer en termes généraux la façon dont s'articule le travail dans son ensemble. Les chapitres I et II sont consacrés à l'étude du contexte historique, juridique et social dans lequel s'exerce le maintien de l'ordre dans les provinces romaines d'Asie Mineure à l'époque impériale. Ils permettront de saisir quelles sont les spécificités structurelles des provinces anatoliennes dans le domaine de la sécurité publique, ainsi que d'affiner notre définition du maintien de l'ordre. Le chapitre I donnera un aperçu historique de la pénétration romaine en Anatolie depuis la période républicaine en insistant sur les changements que cela a entraînés pour cette région dans le domaine de la sécurité publique. Quant au chapitre II, il dévoilera les principaux facteurs sociaux venant ordinairement menacer l'ordre public dans les provinces anatoliennes. Ces deux premiers chapitres serviront de préambule à l'analyse proprement dite des institutions chargées de veiller à la sécurité publique en Anatolie sous le Principat, qui sera proposée dans les chapitres suivants. Les chapitres III et IV, qui sont les plus volumineux, forment le coeur de l'étude. J'y examine en parallèle les institutions municipales et les structures impériales et militaires actives dans le maintien de l'ordre présentes en Asie Mineure. Ces deux chapitres sont les plus techniques dans ce sens que chaque institution répertoriée y est décrite et examinée en détail, principalement sur la base de sources épigraphiques et juridiques. Le but est de déterminer l'origine, la diffusion, les compétences et l'utilité de chacune des structures retenues. Le chapitre V, pour sa part, est réservé à l'étude des conditions nécessaires à l'intervention directe de l'armée romaine dans les provinces anatoliennes. J'y observe aussi plusieurs cas limites où l'action des cités et celle de l'armée romaine s'entremêlent. Ce sera l'occasion de s'interroger sur l'existence d'une éventuelle répartition des tâches entre les cités et les autorités impériales en matière d'ordre public dans les provinces. Les chapitres II à V se terminent, en outre, par un bilan où les principales idées qui y ont été développées sont reprises sous la forme d'une conclusion intermédiaire. Dans la conclusion générale, j'analyse l'interaction des diverses institutions que j'aurai étudiées, dans l'intention de porter un jugement global sur la manière dont la sécurité publique est gérée dans les provinces d'Asie Mineure durant les trois premiers siècles de notre ère. Je chercherai également à savoir si la situation que j'aurai reconnue pour le cas des provinces anatoliennes est la règle pour le reste de l'empire ou si, au contraire, il s'agit d'une exception. J'en tirerai des observations générales sur le mode d'organisation et de gestion de l'empire sous le Principat, comme je me suis proposé de le faire. On trouvera à la fin du volume trois appendices historiques rassemblant de courtes digressions qui viennent s'adjoindre au corps central de l'étude; des appendices épigraphiques énumérant sous forme de listes un grand nombre des inscriptions utiles à l'élaboration de cette recherche; une bibliographie générale avec mention des abréviations employées; des illustrations et cartes; enfin, des index. Je terminerai par quelques avertissements d'ordre pratique nécessaires à la bonne consultation de ce livre. Pour ce qui est des renvois internes (lorsque je renvoie à un chapitre ou à une section de chapitre en général, et non à des pages précises), les numéros des chapitres sont exprimés en chiffres romains, tandis que les numéros des sous-chapitres sont exprimés en chiffres arabes: «Voir chap. V. 2.» signifie donc «voir section 2 du chapitre V». En ce qui concerne les inscriptions contenues dans les appendices épigraphiques, elles sont citées sous la forme d'une lettre suivie d'un numéro, par exemple «B 24»: la lettre renvoie aux listes des appendices épigraphiques (liste B dans cet exemple), le chiffre arabe au numéro de l'inscription dans la liste en question (inscription n° 24 de la liste B en l'occurrence). Quant aux notes de bas de page, la numérotation reprend au début de chaque chapitre. Sauf mention contraire, les dates s'entendent après Jésus-Christ et les traductions sont les miennes. Les abréviations utilisées pour les références aux sources primaires (sources littéraires, juridiques, épigraphiques, papyrologiques, numismatiques) et à la littérature secondaire sont développées dans la bibliographie. Enfin, je voudrais préciser que mon travail ne se veut pas une étude de géographie historique. Je ne me suis donc pas servi, en général, de cartes archéologiques, mais j'ai recouru le plus souvent, pour la localisation des villes et des régions que je mentionne, aux cartes du nouvel atlas Barrington, qui sont très commodes et tout à fait satisfaisantes pour une étude historique d'ensemble comme la mienne.
Resumo:
Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.
Resumo:
Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.
Resumo:
Résumée Le théâtre romain d'Aventicum s'inscrit entre la petite ville moderne d'Avenches et le village de Donatyre, au pied d'une colline en pente douce délimitant au sud-est la plaine de la Broye. Il se situe à l'ouest des quartiers urbains antiques, construits selon un plan orthogonal, et s'intègre à une zone comptant divers temples et édifices publics. Dès l'hiver 1889/1890, l'Association Pro Aventico nouvellement fondée lança les premières fouilles archéologiques. Jusqu'en 1914, on dégagea les parties originales de la maçonnerie tout en assurant la restauration de l'édifice. En 1926/1927 et de 1939 à 1942 auront lieu d'autres fouilles de grande envergure, accompagnées de mesures de conservation. En 2001, la Fondation Pro Aventico lança un projet visant à étudier l'histoire de la construction ainsi que l'architecture du monument, alors connues en partie seulement. Sur la base de vestiges attestant la présence d'édifices antérieurs au théâtre, on définira pour la construction de ce dernier un terminus post quem entre 100 et 120 ap. J.-C. Comme l'indique l'étude du plan au sol, ce projet nécessita une importante planification. L'édifice lui-même se constitue d'une zone en demi-cercle réservée au public, dont les substructions indiquent qu'elle était partiellement isolée des autres. La cavea, subdivisée en trois secteurs concentriques, se termine par le bâtiment des halles et par les aditus; on relèvera que les rangées supérieures réservées aux spectateurs s'étendaient sans doute au-delà des halles et jusqu'à la façade. Les aditus permettaient d'accéder à la zone de l'orchestra et de la scène, dominée par une plate-forme de plan rectangulaire et bordée d'une proédrie. On disposait de deux voies d'accès différentes: l'une à l'avant, par les arcades des halles, et l'une à l'arrière, pratiquée dans le mur en demi-cercle; apparemment, on ne pouvait pénétrer que dans la partie centrale de ce dernier. On ne parvient à restituer que partiellement les voies de circulation dans les substructions de la cavea, en raison de leur piètre état de conservation. On a par contre pu repérer le deambulatorium, à la périphérie, ainsi que cinq vomitoria sur la première praecinctio et six vomitoria sur la seconde praecinctio. On peut admettre, sans toutefois disposer d'arguments à toute épreuve, que la troisième rangée, en haut, était accessible par des cages d'escaliers conduisant à la summa cavea. Ces hypothèses, fondées essentiellement sur le plan au sol de l'édifice et touchant aux voies de circulation, sont corroborées par une restitution des gradins des parties en élévation, aujourd'hui disparus. Quelques éléments architecturaux fournissent des arguments décisifs pour cette restitution, comme par exemple un bloc de gradin qui permet de conclure à un pendage de la cavea de 26.5°. On peut par ailleurs démontrer que le module architectural défini sur la base du plan au sol fut également appliqué lors de la planification de l'élévation. Grâce à des fragments de corniche, à deux chapiteaux de pilastre ornés de feuilles d'acanthe, à une base de pilastre engagée in situ dans la maçonnerie restaurée, et en tenant compte du module architectural, on peut proposer une reconstitution approximative de la composition de la façade de l'enceinte en demi-cercle. Si les structures architecturales révèlent que le théâtre fut planifié et édifié selon un seul et unique concept, on observe cependant quelques transformations et modifications au cours du temps. D'une part, on décèle en divers endroits des traces de réparation et de consolidation, visant sans doute à stabiliser un bâtiment ayant visiblement subi des dégâts. Par ailleurs, on a également entrepris des modifications structurelles ou fonctionnelles, comme l'édification ultérieure du postscaenium le long du mur de scène extérieur. Dans un contexte identique, on relèvera également deux murs flanquant les basiliques, qu'on suppose être en relation avec l'agrandissement du complexe architectural du temple du Cigognier et du théâtre, augmenté des deux temples édifiés au milieu du 2e s. ap. J.-C. au lieu-dit Au Lavoëx. L'excavation, au cours du dernier tiers du IIIe siècle ap. J.-C., d'un fossé de près de 6 m de large pour 1.5 m de profondeur tout autour de l'édifice fit du théâtre un véritable lieu fortifié. Au-dessus du fossé, on a pu relever une séquence stratigraphique témoignant d'une activité d'habitation à proximité du théâtre pour la période allant du IVe au VIIe siècle ap. J.-C. Il s'agit de l'un des rares cas où l'on peut, à Avenches, évoquer la présence d'un habitat de la période du Haut Moyen Age.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Introduction : La prévalence des maladies stéatosiques non alcooliques du foie augmente de manière exponentielle dans les pays industrialisés. Le développement de ces maladies se traduit par une stéatose hépatique fréquemment associée à une résistance à l'insuline. Cette résistance a pu être expliquée par l'accumulation intra-hépatocytaire de lipides intermédiaires tels que Céramides et Diacylglycérols. Cependant, notre modèle animal de stéatose hépatique, les souris invalidées pour la protéine hépatique « Microsomal Triglyceride Transfert Protein » (Mttp Δ / Δ), ne développent pas de résistance à l'insuline, malgré une augmentation de ces lipides intermédiaires. Ceci suggère la présence d'un autre mécanisme induisant la résistance à l'insuline. Matériels et méthodes : L'analyse Microarray du foie des souris Mttp Δ / Δ a montré une forte up-régulation des gènes « Cell-death Inducing DFFA-like Effector C (cidec) », « Lipid Storage Droplet Protein 5 (lsdp5) » et « Bernardinelli-Seip Congenital Lipodystrophy 2 Homolog (seipin) » dans le foie des souris Mttp Δ / Δ. Ces gènes ont été récemment identifiés comme codant pour des protéines structurelles des gouttelettes lipidiques. Nous avons testé si ces gènes jouaient un rôle important dans le développement de la stéatose hépatique, ainsi que de la résistance à l'insuline. Résultats : Nous avons démontré que ces gènes sont fortement augmentés dans d'autres modèles de souris stéatosées tels que ceux présentant une sur-expression de ChREBP. Dans les hépatocytes murins (AML12 :Alfa Mouse Liver 12), l'invalidation de cidec et/ou seipin semble diminuer la phosphorylation d'AKT après stimulation à l'insuline, suggérant une résistance à l'insuline. Chez l'homme, l'expression de ces gènes est augmentée dans le foie de patients obèses avec stéatose hépatique. De manière intéressante, cette augmentation est atténuée chez les patients avec résistance à l'insuline. Conclusion : Ces données suggèrent que ces protéines des gouttelettes lipidiques augmentent au cours du développement de la stéatose hépatique et que cette augmentation protège contre la résistance à l'insuline.