999 resultados para Modèles murins


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMELes modèles classiques sur l'évolution des chromosomes sexuels supposent que des gènes sexe- antagonistes s'accumulent sur les chromosomes sexuels, entraînant ainsi l'apparition d'une région non- recombinante, qui se répand progressivement en favorisant l'accumulation de mutations délétères. En accord avec cette théorie, les chromosomes sexuels que l'on observe aujourd'hui chez les mammifères et les oiseaux sont considérablement différenciés. En revanche, chez la plupart des vertébrés ectothermes, les chromosomes sexuels sont indifférenciés et il existe une impressionnante diversité de mécanismes de détermination du sexe. Au cours de cette thèse, j'ai étudié l'évolution des chromosomes sexuels chez les vertébrés ectothermes, en outre pour mieux comprendre ce contraste avec les vertébrés endothermes. L'hypothèse « high-turnover » postule que les chromosomes sexuels sont remplacés régulièrement à partir d'autosomes afin d'éviter leur dégénérescence. L'hypothèse « fountain-of-youth » propose que la recombinaison entre le chromosome X et le chromosome Y au sein de femelles XY empêche la dégénérescence. Les résultats de ma thèse, basés sur des études théoriques et empiriques, suggèrent que les deux processus peuvent être entraînés par l'environnement et ainsi jouent un rôle important dans l'évolution des chromosomes sexuels chez les vertébrés ectothermes.SUMMARYClassical models of sex-chromosome evolution assume that sexually antagonistic genes accumulate on sex chromosomes leading to a non-recombining region, which progressively expands and favors the accumulation of deleterious mutations. Concordant with this theory, sex chromosomes in extant mammals and birds are considerably differentiated. In most ectothermic vertebrates, such as frogs, however, sex chromosomes are undifferentiated and a striking diversity of sex determination systems is observed. This thesis was aimed to investigate this apparent contrast of sex chromosome evolution between endothermic and ectothermic vertebrates. The "high-turnover" hypothesis holds that sex chromosomes arose regularly from autosomes preventing decay. The "fountain-of-youth" hypothesis posits that sex chromosomes undergo episodic X-Y recombination in sex-reversed XY females, thereby purging ("rejuvenating") the Y chromosome. We suggest that both processes likely played an important role in sex chromosome evolution of ectothermic vertebrates. The literature largely views sex determination as a dichotomous process: individual sex is assumed to be determined either by genetic (genotypic sex determination, GSD) or by environmental factors (environmental sex determination, ESD), most often temperature (temperature sex determination, TSD). We endorsed an alternative view, which sees GSD and TSD as the ends of a continuum. The conservatism of molecular processes among different systems of sex determination strongly supports the continuum view. We proposed to define sex as a threshold trait underlain by a liability factor, and reaction norms allowing modeling interactions between genotypic and temperature effects. We showed that temperature changes (due to e.g., climatic changes or range expansions) are expected to provoke turnovers in sex-determination mechanisms maintaining homomorphic sex chromosomes. The balanced lethal system of crested newts might be the result of such a sex determination turnover, originating from two variants of ancient Y-chromosomes. Observations from a group of tree frogs, on the other hand, supported the 'fountain of youth' hypothesis. We then showed that low rates of sex- reversals in species with GSD might actually be adaptive considering joint effects of deleterious mutation purging and sexually antagonistic selection. Ongoing climatic changes are expected to threaten species with TSD by biasing population sex ratios. In contrast, species with GSD are implicitly assumed immune against such changes, because genetic systems are thought to necessarily produce even sex ratios. We showed that this assumption may be wrong and that sex-ratio biases by climatic changes may represent a previously unrecognized extinction threat for some GSD species.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Risk theory has been a very active research area over the last decades. The main objectives of the theory are to find adequate stochastic processes which can model the surplus of a (non-life) insurance company and to analyze the risk related quantities such as ruin time, ruin probability, expected discounted penalty function and expected discounted dividend/tax payments. The study of these ruin related quantities provides crucial information for actuaries and decision makers. This thesis consists of the study of four different insurance risk models which are essentially related. The ruin and related quantities are investigated by using different techniques, resulting in explicit or asymptotic expressions for the ruin time, the ruin probability, the expected discounted penalty function and the expected discounted tax payments. - La recherche en théorie du risque a été très dynamique au cours des dernières décennies. D'un point de vue théorique, les principaux objectifs sont de trouver des processus stochastiques adéquats permettant de modéliser le surplus d'une compagnie d'assurance non vie et d'analyser les mesures de risque, notamment le temps de ruine, la probabilité de ruine, l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes. L'étude de ces mesures associées à la ruine fournit des informations cruciales pour les actuaires et les décideurs. Cette thèse consiste en l'étude des quatre différents modèles de risque d'assurance qui sont essentiellement liés. La ruine et les mesures qui y sont associées sont examinées à l'aide de différentes techniques, ce qui permet d'induire des expressions explicites ou asymptotiques du temps de ruine, de la probabilité de ruine, de l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chemosensory receptor gene families encode divergent proteins capable of detecting a huge diversity of environmental stimuli that are constantly changing over evolutionary time as organisms adapt to distinct ecological niches. While olfaction is dedicated to the detection of volatile compounds, taste is key to assess food quality for nutritional value and presence of toxic substances. The sense of taste also provides initial signals to mediate endocrine regulation of appetite and food metabolism and plays a role in kin recognition. The fruit fly Drosophila melanogaster is a very good model for studying smell and taste because these senses are very important in insects and because a broad variety of genetic tools are available in Drosophila. Recently, a family of 66 chemosensory receptors, the Ionotropic Receptors (IRs) was described in fruit flies. IRs are distantly related to ionotropic glutamate receptors (iGluRs), but their evolutionary origin from these synaptic receptors is unclear. While 16 IRs are expressed in the olfactory system, nothing is known about the other members of this repertoire. In this thesis, I describe bioinformatic, expression and functional analyses of the IRs aimed at understanding how these receptors have evolved, and at characterising the role of the non-olfactory IRs. I show that these have emerged at the basis of the protostome lineage and probably have acquired their sensory function very early. Moreover, although several IRs are conserved across insects, there are rapid and dramatic changes in the size and divergence of IR repertoires across species. I then performed a comprehensive analysis of IR expression in the larva of Drosophila melanogaster, which is a good model to study taste and feeding mechanisms as it spends most of its time eating or foraging. I found that most of the divergent members of the IR repertoire are expressed in both peripheral and internal gustatory neurons, suggesting that these are involved in taste perception. Finally, through the establishment of a new neurophysiological assay in larvae, I identified for the first time subsets of IR neurons that preferentially detect sugars and amino acids, indicating that IRs might be involved in sensing these compounds. Together, my results indicate that IRs are an evolutionarily dynamic and functionally versatile family of receptors. In contrast to the olfactory IRs that are well-conserved, gustatory IRs are rapidly evolving species-specific receptors that are likely to be involved in detecting a wide variety of tastants. - La plupart des animaux possèdent de grandes familles de récepteurs chimiosensoriels dont la fonction est de détecter l'immense diversité de composés chimiques présents dans l'environnement. Ces récepteurs évoluent en même temps que les organismes s'adaptent à leur écosystème. Il existe deux manières de percevoir ces signaux chimiques : l'olfaction et le goût. Alors que le système olfactif perçoit les composés volatiles, le sens du goût permet d'évaluer, par contact, la qualité de la nourriture, de détecter des substances toxiques et de réguler l'appétit et le métabolisme. L'un des organismes modèles les plus pertinents pour étudier le sens du goût est le stade larvaire de la mouche du vinaigre Drosophila melanogaster. En effet, la principale fonction du stade larvaire est de trouver de la nourriture et de manger. De plus, il est possible d'utiliser tous les outils génétiques développés chez la drosophile. Récemment, une nouvelle famille de 66 récepteurs chimiosensoriels appelés Récepteurs Ionotropiques (IRs) a été découverte chez la drosophile. Bien que leur orogine soit peu claire, ces récepteurs sont similaires aux récepteurs ionotropiques glutamatergiques impliqués dans la transmission synaptique. 16 IRs sont exprimés dans le système olfactif de la mouche adulte, mais pour l'instant on ne connaît rien des autres membres de cette famille. Durant ma thèse, j'ai effectué des recherches sur l'évolution de ces récepteurs ainsi que sur l'expression et la fonction des IRs non olfactifs. Je démontre que les IRs sont apparus chez l'ancêtre commun des protostomiens et ont probablement acquis leur fonction sensorielle très rapidement. De plus, bien qu'un certain nombre d'IRs olfactifs soient conservés chez les insectes, d'importantes variations dans la taille et la divergence des répertoires d'IRs entre les espèces ont été constatées. J'ai également découvert qu'un grand nombre d'IRs non olfactifs sont exprimés dans différents organes gustatifs, ce qui leur confère probablement une fonction dans la perception des goûts. Finalement, pour la première fois, des neurones exprimant des IRs ont été identifiés pour leur fonction dans la perception de sucres et d'acides aminés chez la larve. Mes résultats présentent les IRs comme une famille très dynamique, aux fonctions très variées, qui joue un rôle tant dans l'odorat que dans le goût, et dont la fonction est restée importante tout au long de l'évolution. De plus, l'identification de neurones spécialisés dans la perception de certains composés permettra l'étude des circuits neuronaux impliqués dans le traitement de ces informations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé large public Le glucose est une source d'énergie essentielle pour notre organisme, indispensable pour le bon fonctionnement des cellules de notre corps. Les cellules β du pancréas sont chargées de réguler l'utilisation du glucose et de maintenir la glycémie (taux de glucose dans le sang) à un niveau constant. Lorsque la glycémie augmente, ces dernières sécrètent l'insuline, une hormone favorisant l'absorption, l'utilisation et le stockage du glucose. Une sécrétion insuffisante d'insuline provoque une élévation anormale du taux de glucose dans le sang (hyperglycémie) et peut mener au développement du diabète sucré. L'insuline est sécrétée dans le sang par un mécanisme particulier appelé exocytose. Une meilleure compréhension de ce mécanisme est nécessaire dans l'espoir de trouver des nouvelles thérapies pour traiter les 170 millions de personnes atteintes de diabète sucré à travers le monde. L'implication de diverses protéines, comme les SNAREs ou Rabs a déjà été démontrée. Cependant leurs mécanismes d'action restent, à ce jour, peu compris. De plus, l'adaptation de la machinerie d'exocytose à des conditions physiopathologiques, comme l'hyperglycémie, est encore à élucider. Le but de mon travail de thèse a été de clarifier le rôle de deux protéines, Noc2 et Tomosyn, dans l'exocytose ; puis de déterminer les effets d'une exposition prolongée à un taux élevé de glucose sur l'ensemble des protéines de la machinerie d'exocytose. Noc2 est un partenaire potentiel de deux Rabs connues pour leur implication dans les dernières étapes de l'exocytose, Rab3 et Rab27. Grâce à l'étude de différents mutants de Noc2, j'ai montré que l'interaction avec Rab27 permet à la protéine de s'associer avec les organelles de la cellule β contenant l'insuline. De plus, en diminuant sélectivement l'expression de Noc2, j'ai déterminé l'importance de cette protéine pour le bon fonctionnement du processus d'exocytose et le relâchement de l'insuline. Quant à Tomosyn, une protéine interagissant avec les protéines SNAREs, j'ai démontré son importance dans la sécrétion d'insuline en diminuant de manière sélective son expression dans les cellules β. Ensuite, grâce à une combinaison d'approches moléculaires et de microscopie, j'ai mis en évidence le rôle de Tomosyn dans les dernières étapes de l'exocytose. Enfin, puisque la sécrétion d'insuline est diminuée lors d'une hyperglycémie prolongée, j'ai analysé l'adaptation de la machinerie d'exocytose à ces conditions. Ceci m'a permis de découvrir que l'expression de quatre protéines essentielles pour le processus d'exocytose, Noc2, Rab3, Rab27 et Granuphilin, est fortement diminuée lors d'une hyperglycémie chronique. L'ensemble de ces données met en évidence l'importance de Noc2 et Tomosyn dans la sécrétion d'insuline. L'inhibition, par un taux élevé de glucose, de l'expression de Noc2 et d'autres protéines indispensables pour l'exocytose suggère que ce phénomène pourrait contribuer au développement du diabète sucré. Résumé L'exocytose d'insuline, en réponse au glucose circulant dans le sang, est la fonction principale de la cellule β. Celle-ci permet de stabiliser le taux de glucose sanguin (glycémie). Le diabète de type 2 est caractérisé par une glycémie élevée due, principalement, à un défaut de sécrétion d'insuline en réponse au glucose. La compréhension des mécanismes qui contrôlent l'exocytose d'insuline est essentielle pour clarifier les causes du diabète sucré. Plusieurs composants impliqués dans ce processus ont été identifiés. Ceux-ci incluent les SNAREs Syntaxin-1, VAMP2 et SNAP25 et les GTPases Rab3 et Rab27 qui jouent un rôle dans les dernières étapes de l'exocytose. Pendant mon travail de thèse, j'ai étudié le rôle de Noc2, un des partenaires de Rab3 et Rab27, dans l'exocytose d'insuline. Nous avons déterminé que Noc2 s'associe aux granules de sécrétion d'insuline grâce à son interaction avec Rab27. La diminution de l'expression de Noc2 dans la lignée cellulaire β INS-1E, par ARN interférence, influence négativement la sécrétion d'insuline stimulée par différents sécrétagogues et prouve que cette protéine Noc2 est essentielle pour l'exocytose d'insuline. L'interaction avec Munc13, une protéine impliquée dans l'arrimage des vésicules, suggère que Noc2 participe au recrutement des granules d'insuline à la membrane plasmique. Ensuite, j'ai analysé l'adaptation de la machinerie d'exocytose à des concentrations supraphysiologiques de glucose. Le niveau d'expression de Rab3 et Rab27 et de leurs effecteurs Granuphilin/S1p4 et Noc2 est fortement diminué par une exposition prolongée des cellules β à haut glucose. L'effet observé est en relation avec l'induction de l'expression de ICER, un facteur de transcription surexprimé dans des conditions d'hyperglycémie et également dans des modèles génétiques de diabète de type 2. La surexpression de ICER dans des cellules INS-1E diminue l'expression de Rab3, Rab27, Granuphilin/Slp4 et Noc2 et par conséquent l'exocytose d'insuline. Ainsi, l'induction de ICER, après une exposition prolongée à haut glucose, régule négativement l'expression de protéines essentielles pour l'exocytose et altère la sécrétion d'insuline. Ce mécanisme pourrait contribuer au dysfonctionnement de l'exocytose d'insuline dans le diabète de type 2. Dans la dernière partie de ma thèse, j'ai investigué le rôle de la protéine Tomosyn-1 dans la formation du complexe SNARE. Cette protéine a une forte affinité pour Syntaxin-1 et contient un domaine SNARE. Tomosyn-1 est concentrée dans les régions cellulaires enrichies en granules de sécrétion. La diminution sélective de l'expression de Tomosyn-1 induit une réduction de l'exocytose stimulée par différents sécrétagogues. Cet effet est dû à un défaut de fusion des granules avec la membrane plasmique. Ceci nous indique que Tomosyn-1 intervient dans une phase importante de la préparation des vésicules à la fusion, qui est nécessaire à l'exocytose. Abstract: Insulin exocytosis from pancreatic β-cells plays a central role in blood glucose homeostasis. Diabetes mellitus is a complex metabolic disorder characterized by secretory dysfunctions in pancreatic β-cells and release of amounts of insulin that are inappropriate to maintain blood glucose concentration within normal physiological ranges. To define the causes of β-cell failure a basic understanding of the molecular mechanisms that control insulin exocytosis is essential. Some of the molecular components involved in this process have been identified, including the SNARE proteins VAMP2, Syntaxin-1 and SNAP25 and the two GTPases, Rab3 and Rab27, that regulate the final steps of insulin secretion. I first investigated the role of Noc2, a potential Rab3 and Rab27 partner, in insulin secretion. I found that Noc2 associates with Rab27 and is recruited by this GTPase on insulin- containing granules. Silencing of the Noc2 gene by RNA interference led to a strong impairment in the capacity of the β-cell line INS-1E to respond to secretagogues, indicating that appropriate levels of the protein are essential for insulin exocytosis. I also showed that Noc2 interacts with Munc13, a protein that controls vesicle priming, suggesting a possible involvement of Noc2 in the recruitment of secretory granules at the plasma membrane. In the second part of my thesis, I investigated the adaptation of the molecular machinery of exocytosis to physiopathological conditions. I found that the expression of Rab3, Rab27 and of their effectors Granuphilin/Slp4 and Noc2 is dramatically decreased by chronic exposure of β-ce1ls to supraphysiological glucose levels. The observed glucotoxic effect is a consequence of the induction of ICER, a transcriptional repressor that is increased by prolonged hyperglycemia and in genetic models of type 2 diabetes. Overexpression of ICER reduced Granuphilin, Noc2, Rab3 and Rab27 levels and inhibited exocytosis. These results suggest that the presence of inappropriate levels of ICER diminishes the expression of a group of proteins essential for exocytosis and contributes to defective insulin release in type 2 diabetes. In the last part of my thesis, I focused my attention on the role of Tomosyn-1, a Syntaxin-1 binding protein possessing a SNARE-like motif, in the control of SNARE complex assembly. I found that Tomosyn-1 is concentrated in cellular compartments enriched in insulin-containing secretory granules. Silencing of Tomosyn-1 did not affect the number of secretory granules docked at the plasma membrane but decreased their release probability, resulting in a reduction in stimulus-induced insulin exocytosis. These findings suggest that Tomosyn-1 is involved in a post-docking event that prepares secretory granules for fusion and is necessary to sustain exocytosis in response to insulin secretagogues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article analyse, à partir d'un modèle intégratif et dynamique, la souffrance au travail et les manifestations de celle-ci, chez les agents pénitentiaires en milieu carcéral dans un espace particulier qui est celui du « parloir pénitentiaire ». Si les questions des facteurs de risques, notamment du stress ou du burnout ont été abondamment traitées dans la littérature, selon des approches factorielles, rares sont les modèles multidimensionnels existants qui permettent de comprendre la complexité et la spécificité des processus en jeu en milieu carcéral. La méthode de recherche relève d'une analyse comparative des espaces professionnels. Soixante douze entretiens semi-directifs de recherche ont été conduits auprès des surveillants occupant chacun des espaces, dans trois établissements pénitentiaires français. À partir de différents indicateurs, le modèle permet de saisir les processus et étapes qui conduisent à la manifestation de souffrances au travail. Il offre à la fois des perspectives d'intervention et de prévention pour les cadres et psychologues chargés du soutien aux personnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les monographies consacrées à Jean-Baptiste Perronneau (ca 1715-1783) à la fin du XIXe siècle et au début du XXe siècle traduisaient l'engouement pour l'art du XVIIIesiècle qui se déployait dans le Tout Paris de la Belle Époque. Elles rendaient justice au peintre de l'Académie royale de peinture et de sculpture de Paris, et à l'un des peintres favoris des contemporains des Impressionnistes qu'elles présentaient comme un artiste éclipsé de son vivant par son prestigieux aîné, Maurice Quentin Delatour (1704-1788). La première partie de la thèse étudie la carrière parisienne du peintre, ses appuis artistiques et sociaux, ses pratiques au pastel et à l'huile, de l'agrément en 1746 à la réception en 1753 et avant le début de la période des voyages en 1756. La rivalité avec Delatour, mise en scène dans un esprit d'émulation au Salon du Louvre pendant plus de vingt ans, y est largement évoquée. Un même nombre de portraits exposés fait comprendre que Perronneau avait de son vivant la faveur des artistes et du public. Il permet de mesurer les effets de la rivalité avec le peintre de Cour sur sa carrière. Delatour faisait exposer en 1750 son autoportrait à côté de son portrait demandé à Perronneau. Les qualités des deux peintres étaient comparées par la nouvelle critique. Notre étude s'attache à ce qui les rapproche comme à ce qui les sépare. Dans la deuxième partie, les peintres des milieux artistiques qu'il fréquente, Louis Tocqué, Jean-Baptiste Oudry, Charles Nicolas Cochin, pour citer les principaux, sont convoqués pour évaluer l'art de Perronneau dans ce que Cochin appelle la « ressemblance savante ». Les peintres les plus ambitieux s'attachent à son interprétation malgré les difficultés dues aux réactions de leur clientèle. La façon dont procède Perronneau est ici envisagée suivant deux aspects : d'une part, la composition du portrait selon une idée du naturel qui détermine l'attitude et une certaine imitation des défauts ; d'autre part, l'imitation de la nature qui réside dans les qualités de l'art, et donc picturales, appréciées des amateurs avertis. La façon qui lui est propre est de composer un naturel selon des poses variées, fondé sur la noblesse de l'attitude conjuguée à la simplicité, conformément à l'idéal courtois en vigueur depuis le XVIe siècle ; elle reste immuable au long de sa carrière. Dans l'imitation de la nature, sont mis en évidence des aspects cachés du faire lors de la mise en place du relief de la figure, les références aux maîtres anciens, Rembrandt, Van Dyck, la conscience de la distance à laquelle le tableau doit être vu, qui atténue la vigueur de la touche, comme le fait le verre qui sert aussi de vernis au pastel. L'idée de sprezzatura qui régit la distinction légère de la pose se décèle à la surface de ses portraits à travers l'apparence de facilité qu'il s'attache à leur donner, et jusque dans l'inimitable retouche finale. Grâce à la qualité de sa retouche, Perronneau accroît sensiblement dans certaines oeuvres à partir de 1768 l'expression savante et inventive de son sentiment. Afin de peindre comme il l'entend tout en gagnant sa vie et celle de sa famille, le peintre prend le parti de voyager comme l'y autorisait la libéralité de son statut. Dans la troisième partie est étudiée la trame de ses voyages que constituent les recommandations dont il bénéficie. Les identités des quatre cent dix modèles peints en France et en Europe de 1740 à 1782 sont systématiquement étudiées dans le catalogue ainsi que les conditions de leur rencontre avec le peintre. Elles décrivent une clientèle variée représentative de la mobilité des statuts dans l'Europe d'ancien Régime dont la composante nouvelle est la clientèle du monde de la banque internationale et du grand commerce. Leurs portraits peints à l'étranger ou dans les villes de Province que Perronneau présente au Salon irritent et inquiètent l'élite parisienne et donne lieu à de nouvelles tensions avec l'éternel rival, Delatour, au Salon de 1767. Perronneau se sent à juste titre évincé de Paris. Alors que l'on avait pu penser qu'il avait peu souffert des critiques du philosophe qui ne furent publiées qu'après sa mort, il apparaît que sa réputation pâtit de ses jugements diffusés par les nouvelles à la main au-delà des frontières et jusqu'auprès de la prestigieuse clientèle qui lui était acquise. Le travail sur son la carrière et l'oeuvre de Perronneau permet surtout une compréhension nouvelle de l'art du portrait au milieu du siècle, au moment où la représentation individuelle n'a jamais encore touché un aussi large public et où l'Académie ambitionne d'élever cet art au plus haut degré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les tumeurs sont diverses et hétérogènes, mais toutes partagent la capacité de proliférer sans contrôle. Une prolifération dérégulée de cellules couplée à une insensibilité à une réponse apoptotique constitue une condition minimale pour que l'évolution d'une tumeur se produise. Un des traitements les plus utilisés pour traité le cancer à l'heure actuelle sont les chimiothérapies, qui sont fréquemment des composés chimiques qui induisent des dommages dans l'ADN. Les agents anticancéreux sont efficaces seulement quand les cellules tumorales sont plus aisément tuées que le tissu normal environnant. L'efficacité de ces agents est en partie déterminée par leur capacité à induire l'apoptose. Nous avons récemment démontré que la protéine RasGAP est un substrat non conventionnel des caspases parce elle peut induire à la fois des signaux anti et pro-apoptotiques, selon l'ampleur de son clivage par les caspases. A un faible niveau d'activité des caspases, RasGAP est clivé, générant deux fragments (le fragment N et le fragment C). Le fragment N semble être un inhibiteur général de l'apoptose en aval de l'activation des caspases. À des niveaux plus élevés d'activité des caspases, la capacité du fragment N de contrecarrer l'apoptose est supprimée quand il est clivé à nouveau par les caspases. Ce dernier clivage produit deux nouveaux fragments, N 1 et N2, qui contrairement au fragment N sensibilisent efficacement des cellules cancéreuses envers des agents chimiothérapeutiques. Dans cette étude nous avons prouvé qu'un peptide, appelé par la suite TAT-RasGAP317-326, qui est dérivé du fragment N2 de RasGAP et est rendu perméable aux cellules, sensibilise spécifiquement des cellules cancéreuses à trois génotoxines différentes utilisées couramment dans des traitements anticancéreux, et cela dans des modèles in vitro et in vivo. Il est important de noté que ce peptide semble ne pas avoir d'effet sur des cellules non cancéreuses. Nous avons également commencé à caractériser les mécanismes moléculaires expliquant les fonctions de sensibilisation de TAT-RasGAP317-326. Nous avons démontré que le facteur de transcription p53 et une protéine sous son activité transcriptionelle, nommée Puma, sont indispensables pour l'activité de TAT-RasGAP317-326. Nous avons également prouvé que TAT-RasGAP317-326 exige la présence d'une protéine appelée G3BP1, une protéine se liant a RasGAP, pour potentialisé les effets d'agents anticancéreux. Les données obtenues dans cette étude montrent qu'il pourrait être possible d'augmenter l'efficacité des chimiothérapies à l'aide d'un composé capable d'augmenter la sensibilité des tumeurs aux génotoxines et ainsi pourrait permettre de traiter de manière plus efficace des patients sous traitement chimiothérapeutiques. Summary Tumors are diverse and heterogeneous, but all share the ability to proliferate without control. Deregulated cell proliferation coupled with suppressed apoptotic sensitivity constitutes a minimal requirement upon which tumor evolution occurs. One of the most commonly used treatments is chemotherapy, which frequently uses chemical compounds that induce DNA damages. Anticancer agents are effective only when tumors cells are more readily killed than the surrounding normal tissue. The efficacy of these agents is partly determined by their ability to induce apoptosis. We have recently demonstrated that the protein RasGAP is an unconventional caspase substrate because it can induce both anti- and pro-apoptotic signals, depending on the extent of its cleavage by caspases. At low levels of caspase activity, RasGAP is cleaved, generating an N-terminal fragment (fragment N) and a C-terminal fragment (fragment C). Fragment N appears to be a general Mocker of apoptosis downstream of caspase activation. At higher levels of caspase activity, the ability of fragment N to counteract apoptosis is suppressed when it is further cleaved. This latter cleavage event generates two fragments, N1 and N2, which in contrast to fragment N potently sensitizes cancer cells toward DNA-damaging agents induced apoptosis. In the present study we show that a cell permeable peptide derived from the N2 fragment of RasGAP, thereafter called TAT-RasGAP317-326, specifically sensitizes cancer cells to three different genotoxins commonly used in chemotherapy in vitro and in vivo models. Importantly this peptide seems not to have any effect on non cancer cells. We have also started to characterize the molecular mechanisms underlying the sensitizing functions of TAT-RasGAP317-326. We have demonstrated that the p53 transcription factor and a protein under its transcriptional activity, called Puma, are required for the activity of TATRasGAP317-326. We have also showed that TAT-RasGAP317-326 requires the presence of a protein called G3BP1, which have been shown to interact with RasGAP, to increase the effect of the DNA-damaging drug cisplatin. The data obtained in this study showed that it is possible to increase the efficacy of current used chemotherapies with a compound able to increase the efficacy of genotoxins which could be beneficial for patients subjected to chemotherapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DES FRONTIERES ENTRE TEXTE ET CONTEXTE : POINTS DE VUE THEORIQUES - Sur la métacommunication / C. Sluzki - De l'amour du texte à l'amour du contexte / J. Cosnier - Le dialogue entre l'intra-psychique et l'interpersonnel : une perspective développmentale / D. Stern - Texte et contexte. La perspective thermodynamique / R. Fivaz - Une position constructiviste pour la thérapie familiale / L. Hoffman MICROPROCESSUS DANS LES CONVERSATIONS : POINTS DE VUE EMPIRIQUES ET DEVELOPPEMENTAUX - Le contrat comme relation. Une étude des cadres sociaux du consentement / M. Modak - Recherche sur les axiomes de "Une logique de la communication" / J. Beavin-Bavelas - Distance physique ou distance psychique ? Les formations corporelles parents-bébé comme contextes de l'autonomisation dans la famille / C. Gertsch-Bettens - L'encadrement parental dans le jeu à trois. Une recherche exploratoire d'inspiration systémique / A. Corbosz-Warnery - L'évolution des formations corporelles lors de thérapies familiales en fonction de l'alliance thérapeutique / S. Serpa-Rusconi, P.-A. Doudin - Genèse de la négociation interpersonnelle des conflits : point de vue pragmatique / H. Jisa LES RECONTEXTUALISATIONS EN THERAPIE FAMILIALE - De l'ajustement du cadre en thérapie familiale / F. Seywert, E. Fivaz Depeursinge - Les questions réflexives, source d'autoguérison / K. Tomm...[et al.] - Langage et changement. L'usage de paroles-clés en thérapie / J. Pereira - Texte et contexte en psychosomatique : des modèles réductionnistes à une épistémologie de la complexité / L. Onnis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLes récentes thérapies anticancéreuses développées visent principalement à inhiber les protéines mutées et responsables de la croissance des cellules cancéreuses. Dans ce contexte, l'inhibition d'une protéine appelée mTOR est une stratégie prometteuse. En effet, mTOR régule la prolifération et la survie cellulaire et mTOR est fréquemment activé dans les cellules tumorales.De nombreuses études ont démontré l'efficacité anti-tumorale d'inhibiteurs de mTOR telle que la rapamycine aussi bien dans des modèles expérimentaux que chez les patients souffrant de cancers. Ces études ont cependant également démontré que l'inhibition de mTOR induit l'activation d'autres protéines cellulaires qui vont induire la prolifération cellulaire et ainsi limiter l'effet anti-tumoral des inhibiteurs de mTOR. En particulier, la rapamycine induit l'activation de la voie de signalisation PI3K/Akt qui joue un rôle prépondérant dans la croissance cellulaire.Dans ce travail, nous avons étudié l'effet de la rapamycine sur une protéine appelée JNK ainsi que le rôle de JNK sur les effets anti-tumoraux de la rapamycine. JNK est une protéine impliquée dans la survie et la prolifération cellulaire. Elle est activée notamment par la voie de signalisation PI3K/Akt. De ce fait, nous avons émis l'hypothèse que la rapamycine induirait l'activation de JNK, réduisant ainsi l'efficacité anti¬tumorale de la rapamycine. En utilisant une lignée cellulaire tumorale (LS174T) dérivée du cancer colorectal, nous avons observé que la rapamycine induisait l'activation de JNK. Nous avons également observé que l'inhibition de JNK par le SP600125, un inhibiteur chimique de JNK, ou par la surexpression d'un dominant négatif de JNK dans les cellules LS174T potentialisait l'effet anti-tumoral de la rapamycine in vitro ainsi que dans un modèle murin de xénogreffe tumorale in vivo.En conclusion, nous avons observé que l'activation de JNK induite par la rapamycine entraine une réduction de l'effet anti-tumoral de cette dernière. Nous proposons ainsi que l'inhibition simultanée de JNK et de mTOR représente une nouvelle option thérapeutique en oncologie qu'il conviendra de confirmer dans d'autres modèles expérimentaux avant d'être testée dans des études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Version abregée L'ischémie cérébrale est la troisième cause de mort dans les pays développés, et la maladie responsable des plus sérieux handicaps neurologiques. La compréhension des bases moléculaires et anatomiques de la récupération fonctionnelle après l'ischémie cérébrale est donc extrêmement importante et représente un domaine d'intérêt crucial pour la recherche fondamentale et clinique. Durant les deux dernières décennies, les chercheurs ont tenté de combattre les effets nocifs de l'ischémie cérébrale à l'aide de substances exogènes qui, bien que testées avec succès dans le domaine expérimental, ont montré un effet contradictoire dans l'application clinique. Une approche différente mais complémentaire est de stimuler des mécanismes intrinsèques de neuroprotection en utilisant le «modèle de préconditionnement» : une brève insulte protège contre des épisodes d'ischémie plus sévères à travers la stimulation de voies de signalisation endogènes qui augmentent la résistance à l'ischémie. Cette approche peut offrir des éléments importants pour clarifier les mécanismes endogènes de neuroprotection et fournir de nouvelles stratégies pour rendre les neurones et la glie plus résistants à l'attaque ischémique cérébrale. Dans un premier temps, nous avons donc étudié les mécanismes de neuroprotection intrinsèques stimulés par la thrombine, un neuroprotecteur «préconditionnant» dont on a montré, à l'aide de modèles expérimentaux in vitro et in vivo, qu'il réduit la mort neuronale. En appliquant une technique de microchirurgie pour induire une ischémie cérébrale transitoire chez la souris, nous avons montré que la thrombine peut stimuler les voies de signalisation intracellulaire médiées par MAPK et JNK par une approche moléculaire et l'analyse in vivo d'un inhibiteur spécifique de JNK (L JNK) .Nous avons également étudié l'impact de la thrombine sur la récupération fonctionnelle après une attaque et avons pu démontrer que ces mécanismes moléculaires peuvent améliorer la récupération motrice. La deuxième partie de cette étude des mécanismes de récupération après ischémie cérébrale est basée sur l'investigation des bases anatomiques de la plasticité des connections cérébrales, soit dans le modèle animal d'ischémie transitoire, soit chez l'homme. Selon des résultats précédemment publiés par divers groupes ,nous savons que des mécanismes de plasticité aboutissant à des degrés divers de récupération fonctionnelle sont mis enjeu après une lésion ischémique. Le résultat de cette réorganisation est une nouvelle architecture fonctionnelle et structurelle, qui varie individuellement selon l'anatomie de la lésion, l'âge du sujet et la chronicité de la lésion. Le succès de toute intervention thérapeutique dépendra donc de son interaction avec la nouvelle architecture anatomique. Pour cette raison, nous avons appliqué deux techniques de diffusion en résonance magnétique qui permettent de détecter les changements de microstructure cérébrale et de connexions anatomiques suite à une attaque : IRM par tenseur de diffusion (DT-IR1V) et IRM par spectre de diffusion (DSIRM). Grâce à la DT-IRM hautement sophistiquée, nous avons pu effectuer une étude de follow-up à long terme chez des souris ayant subi une ischémie cérébrale transitoire, qui a mis en évidence que les changements microstructurels dans l'infarctus ainsi que la modification des voies anatomiques sont corrélés à la récupération fonctionnelle. De plus, nous avons observé une réorganisation axonale dans des aires où l'on détecte une augmentation d'expression d'une protéine de plasticité exprimée dans le cône de croissance des axones (GAP-43). En appliquant la même technique, nous avons également effectué deux études, rétrospective et prospective, qui ont montré comment des paramètres obtenus avec DT-IRM peuvent monitorer la rapidité de récupération et mettre en évidence un changement structurel dans les voies impliquées dans les manifestations cliniques. Dans la dernière partie de ce travail, nous avons décrit la manière dont la DS-IRM peut être appliquée dans le domaine expérimental et clinique pour étudier la plasticité cérébrale après ischémie. Abstract Ischemic stroke is the third leading cause of death in developed countries and the disease responsible for the most serious long-term neurological disability. Understanding molecular and anatomical basis of stroke recovery is, therefore, extremely important and represents a major field of interest for basic and clinical research. Over the past 2 decades, much attention has focused on counteracting noxious effect of the ischemic insult with exogenous substances (oxygen radical scavengers, AMPA and NMDA receptor antagonists, MMP inhibitors etc) which were successfully tested in the experimental field -but which turned out to have controversial effects in clinical trials. A different but complementary approach to address ischemia pathophysiology and treatment options is to stimulate and investigate intrinsic mechanisms of neuroprotection using the "preconditioning effect": applying a brief insult protects against subsequent prolonged and detrimental ischemic episodes, by up-regulating powerful endogenous pathways that increase resistance to injury. We believe that this approach might offer an important insight into the molecular mechanisms responsible for endogenous neuroprotection. In addition, results from preconditioning model experiment may provide new strategies for making brain cells "naturally" more resistant to ischemic injury and accelerate their rate of functional recovery. In the first part of this work, we investigated down-stream mechanisms of neuroprotection induced by thrombin, a well known neuroprotectant which has been demonstrated to reduce stroke-induced cell death in vitro and in vivo experimental models. Using microsurgery to induce transient brain ischemia in mice, we showed that thrombin can stimulate both MAPK and JNK intracellular pathways through a molecular biology approach and an in vivo analysis of a specific kinase inhibitor (L JNK1). We also studied thrombin's impact on functional recovery demonstrating that these molecular mechanisms could enhance post-stroke motor outcome. The second part of this study is based on investigating the anatomical basis underlying connectivity remodeling, leading to functional improvement after stroke. To do this, we used both a mouse model of experimental ischemia and human subjects with stroke. It is known from previous data published in literature, that the brain adapts to damage in a way that attempts to preserve motor function. The result of this reorganization is a new functional and structural architecture, which will vary from patient to patient depending on the anatomy of the damage, the biological age of the patient and the chronicity of the lesion. The success of any given therapeutic intervention will depend on how well it interacts with this new architecture. For this reason, we applied diffusion magnetic resonance techniques able to detect micro-structural and connectivity changes following an ischemic lesion: diffusion tensor MRI (DT-MRI) and diffusion spectrum MRI (DS-MRI). Using DT-MRI, we performed along-term follow up study of stroke mice which showed how diffusion changes in the stroke region and fiber tract remodeling is correlating with stroke recovery. In addition, axonal reorganization is shown in areas of increased plasticity related protein expression (GAP 43, growth axonal cone related protein). Applying the same technique, we then performed a retrospective and a prospective study in humans demonstrating how specific DTI parameters could help to monitor the speed of recovery and show longitudinal changes in damaged tracts involved in clinical symptoms. Finally, in the last part of this study we showed how DS-MRI could be applied both to experimental and human stroke and which perspectives it can open to further investigate post stroke plasticity.